Article image
Mário Lacerda
Mário Lacerda19/05/2024 23:42
Compartilhe

O Lado Umbroso da IA

  • #IA Generativa

Por que não podemos ignorar o lado Umbroso da IA?

image

Imagem: Shutterstock

Como a IA continua a evoluir, ela introduz maiores riscos de segurança e dados.

Aqui está o que precisamos fazer sobre isso.

A inteligência artificial é uma fronteira emocionante, prometendo transformar quase todos os aspectos de nossas vidas, desde a forma como trabalhamos e nos diviremos até como aprendemos e nos conectamos.

No entanto, com essas promessas vem um nível crescente de risco para novas formas de cibercrime, violações de dados e violações de privacidade. Ao entrarmos neste admirável mundo novo, devemos enfrentar esses desafios e garantir que os benefícios da IA não cheguem ao custo de nossa segurança cibernética e privacidade pessoal.

Com duas décadas testemunhando a "evolução da montanha-russa da IA", vi em primeira mão as mudanças sísmicas que essa tecnologia trouxe para nossas sociedades. É uma narrativa de potencial e perigo, preocupações com a promessa e privacidade, inovação e intrusão.

Riscos de segurança Poses de IA :

1. Coleta e perfilamento de dados.

2. Vigilância e rastreamento.

3. Violações de dados e riscos de segurança.

4. Ataques de inferência e de re-identificação

1. Coleta e perfilamento de dados

Um dos maiores pontos fortes da IA reside na sua capacidade de coletar e analisar grandes quantidades de dados.

Isso levou à criação de extensos perfis de dados, permitindo que os sistemas de IA prevejam o comportamento, forneçam serviços personalizados e ofereçam experiências únicas de usuário adaptadas às necessidades e preferências individuais.

No entanto, esses dados profundos mergulham em informações pessoais despertam preocupações significativas de privacidade.

A capacidade da IA de coletar, analisar e prever com base em dados pessoais abre a porta para acesso não autorizado, uso indevido e potencial exploração de informações pessoais.

É uma espada de dois gumes, onde a mesma ferramenta usada para personalização pode se tornar um instrumento de intrusão pessoal.

A exploração on-line de informações pessoais sempre foi uma preocupação, mas a combinação de violações de dados de IA e a rápida divulgação de dados pessoais pelo público intensificou o medo.

Por exemplo, faça compras de supermercado online. Os detalhes do cartão de crédito, histórico de compras, localização e até mesmo as pessoas que compartilham o mesmo espaço, são meticulosamente rastreados.

Com esses pontos de dados, os atores maliciosos podem gerar e-mails hiper-realistas, vídeos, cartas e gravações de voz, possuindo conhecimento íntimo de sua identidade, atividades, círculo social e hábitos alimentares.

Em 2022, os americanos foram vítimas de golpes na internet, resultando em uma perda impressionante de US $ 10,5 bilhões. Esses golpes utilizaram técnicas de força bruta e programação comportamental simples.

Notavelmente, tanto as principais mercearias quanto as instituições financeiras foram alvos, levando à exposição de dados valiosos na dark web. Mais sobre a IAClonagem de voz. O que é assustador ...

2. Vigilância e Rastreamento

O aumento das tecnologias de vigilância baseadas em IA, como reconhecimento facial e análise de vídeo, é outra área de crescente preocupação.

Essas ferramentas oferecem grande potencial em áreas como segurança, aplicação da lei e até mesmo varejo, permitindo recursos de rastreamento e identificação em tempo real.

No entanto, eles também representam uma ameaça significativa à privacidade, permitindo níveis sem precedentes de vigilância em espaços públicos e no mundo digital.

Equilibrar esses benefícios e preocupações não é tarefa fácil, mas é um esforço que devemos empreender para garantir que nossos espaços públicos não se transformem em pontos de vigilância.

Grandes grupos e câmaras de eco também são uma preocupação. Lamentavelmente, algoritmos e incentivos de mercado priorizam o tempo de observação acima de tudo, levando à criação de câmaras de eco.

Essas câmaras de eco não oferecem necessariamente as informações mais precisas; em vez disso, elas apresentam conteúdo que se alinha com o que você gastou mais tempo visualizando ou reagiu fortemente.

Para ilustrar esse fenômeno, vamos considerar o movimento plano da Terra, que inicialmente surgiu como uma piada. No entanto, devido à abundância de conteúdo gerado, eu pessoalmente conheço indivíduos que se convenceram de que a Terra é plana.

Embora discutir a forma da Terra possa parecer trivial, a aplicação dessas táticas a questões de fé, política ou crenças profundamente arraigadas pode ter consequências graves, potencialmente até mesmo provocando conflitos etc.

3. Violações de dados e riscos de segurança

Assim como qualquer outra tecnologia, a IA não está imune a ataques cibernéticos e violações de dados. Na verdade, à medida que os sistemas de IA se tornam mais essenciais para nossas infraestruturas, eles podem se tornar alvos principais para hackers.

Os dados pessoais comprometidos podem levar a consequências desastrosas, incluindo roubo de identidade, fraude ou outras violações de privacidade.

É uma sombra iminente que foi lançada sobre o potencial brilhante da IA, um risco que ameaça destruir a confiança necessária para a adoção generalizada da IA.

4. Inferência e Re-identificação Ataques

A capacidade da IA de fazer conexões a partir de pontos de dados díspares pode levar à descoberta de informações confidenciais, mesmo quando os dados iniciais parecem não relacionados ou anonimizados.

Esse recurso abre um novo caminho para possíveis violações de privacidade, já que os algoritmos de IA podem inferir informações pessoais confidenciais de dados aparentemente inofensivos.

É um lembrete preocupante das capacidades sofisticadas da IA e da necessidade de medidas rigorosas de proteção de dados.

O futuro da governança da IA Para resolver essas inúmeras preocupações, proponho que estabeleçamos regulamentos robustos, diretrizes éticas e práticas de transparência que regem o desenvolvimento e a implantação da IA.

No entanto, este não é um apelo à censura generalizada ou à inovação sufocante. A liberdade de expressão deve permanecer na vanguarda de nossas considerações, mesmo enquanto navegamos nessas águas complicadas.

Assim como o sistema usado para conceda conteúdo explícito em jogos de música ou vídeo, talvez os aplicativos de IA devam carregar “avisos de conteúdo”.

Tais avisos serviriam para informar os usuários sobre riscos potenciais ou preocupações éticas em torno de certos aplicativos de IA, fornecendo uma camada de transparência e permitindo que os indivíduos fizessem escolhas informadas.

Licenciamento, embora seja uma solução lógica para a regulação da IA, coloca seu próprio conjunto de desafios.

Embora possa ser benéfico para uso público ou tratamento de dados corporativos, o licenciamento de IA para uso pessoal pode inadvertidamente levar à criação de perfis e discriminação, dois problemas que pretendemos evitar. A imposição de licenciamento à IA atualmente seria considerada prejudicial para a humanidade.

O conhecimento deve ser universalmente acessível e o reconhecimento deve ser concedido para sua aplicação, em vez de acumular conhecimento de outros.

A implementação prática de tal licenciamento parece desconcertante, especialmente considerando a disponibilidade existente de ferramentas de IA por meio de iniciativas de código aberto como Apache Spark, Ray e OpenAI.

Essas plataformas tornaram a IA acessível a qualquer pessoa disposta a investir o esforço para aprender. A OpenAI, em particular, oferece essas ferramentas gratuitamente ou a um custo mínimo para empreendimentos mais sérios.

Parece que o gato proverbial já está fora do saco. No entanto, se quisermos aprofundar a discussão sobre o licenciamento de IA, torna-se crucial abordar questões sociais mais amplas.

Enquanto as sociedades estiverem atolas em regime autoritário, encarcerando indivíduos e perpetuando a crença de que um ser humano possui poder sobre outro, o resultado do licenciamento de IA só pode levar a um futuro distópico.

Em vez disso, é imperativo que nos esforcemos por uma sociedade baseada em princípios de tutela, onde os indivíduos possam viver livremente com uma passagem segura, desde que não representem uma ameaça imediata para si mesmos ou para os outros.

Em tal sociedade, restringir o acesso à IA a grupos específicos seria profundamente irresponsável e indicativo de um regime autoritário.

Como proteger contra riscos de segurança de IA Modelos de IA generativos trazem inovação para campos como criação de conteúdo, mas também representam riscos significativos de segurança cibernética.

Estes incluem phishing com inteligência artificial, que é sofisticado e difícil de detectar, deepfakes que podem levar a fraude ou chantagem, hacking automatizado e envenenamento de dados que manipula a saída de um modelo.

As empresas devem estabelecer medidas de segurança específicas para IA, incluindo a proteção de dados de treinamento, a auditoria e a atualização consistentes dos modelos e a aplicação de controles de acesso robustos para sistemas de IA para proteger contra essas ameaças.

A educação dos funcionários é fundamental. Ensiná-los a reconhecer ameaças alimentadas por IA, mantendo boas práticas de segurança cibernética e entendendo o dano potencial de deepfakes.

As ferramentas avançadas de monitoramento e detecção também podem ajudar na rápida identificação de possíveis ameaças. No caso de uma violação, ter um plano de resposta a incidentes robusto é primordial.

O cumprimento de todos os regulamentos relevantes de proteção de dados e segurança cibernética reduz a ameaça e a responsabilidade legal potencial em caso de violação.

Por fim, as auditorias de rotina de terceiros podem ajudar a identificar possíveis vulnerabilidades e garantir que todas as medidas de segurança sejam eficazes e atualizadas.

É uma abordagem multifacetada e complexa, mas é crucial para navegar no complexo cenário da IA e da segurança cibernética. Por que a IA responsável é crítica A IA oferece um imenso potencial para democratizar o acesso à informação e às habilidades.

Imagine um mundo onde qualquer pessoa, independentemente de sua formação, possa se tornar um programador ou entender nuances de linguagem complexas, tudo graças à IA.

O apelo à regulamentação não é sobre sufocar a inovação da IA; é sobre moldá-la de forma responsável. Precisamos de liderança e educação para garantir o equilíbrio certo, com regulamentos tão mínimos quanto necessário, mas tão robusto quanto necessário.

Devemos nos esforçar para um mundo onde os benefícios da IA estejam disponíveis gratuitamente para todos, sem medo de exploração ou perda de privacidade. Equilibrar a inovação e a segurança, o progresso e a privacidade – este será o nosso maior desafio e conquista. 

 

Demais riscos Associados a IA      

Vamos explorar cada um deles brevemente:


Conclusão


Em última análise, é crucial que continuemos a debater e regulamentar o uso responsável da IA para maximizar seus benefícios e minimizar os riscos.


1 - Sistemas de armas autônomos: A automação de armas pode ser perigosa, pois a IA pode tomar decisões sem intervenção humana, levando a consequências imprevistas.

2- Vigilância em massa: A IA pode ser usada para monitorar e rastrear pessoas, o que pode afetar a privacidade e a liberdade individual.

3 - Sistemas de crédito social: Alguns países estão usando IA para avaliar o comportamento dos cidadãos e atribuir pontuações sociais. Isso pode ser usado para recompensar ou punir pessoas com base em suas ações.

4 - Novas formas de malware: A IA também pode ser usada para criar malware mais sofisticado, dificultando a detecção e a proteção contra ameaças cibernéticas.

5 - Manipulação por meio das mídias sociais: Algoritmos de IA podem ser usados para espalhar desinformação e influenciar opiniões nas redes sociais.

6 - Uso para tráfico, desvios, crimes e coisas piores: A IA pode ser explorada por criminosos para fins ilícitos, como tráfico de drogas, lavagem de dinheiro e outros crimes.

7 - Laboratórios e doenças: A IA pode acelerar a pesquisa científica, mas também pode ser usada para criar armas biológicas ou vírus.

8 - Perseguição e domínio em massa: Governos autoritários podem usar IA para reprimir dissidentes e controlar a população.

9 - Distorções, controles e repressão: A IA pode amplificar preconceitos e desigualdades existentes, além de ser usada para censurar informações.

10 - Capacidade de absorver tudo e usar de maneira aperfeiçoada: A IA pode aprender rapidamente e superar as habilidades humanas em várias áreas.

11 - Potencial para se rebelar contra nós por saber nossos padrões, formas e atitudes tendenciosas: Embora seja improvável que a IA se rebele, é importante considerar os limites éticos e de segurança ao desenvolvê-la.


 Esses riscos têm o potencial de causar danos imensos e até mesmo pavor pela parte nefasta da IA. Por exemplo, os sistemas de armas autônomos poderiam ser usados para travar guerras sem intervenção humana, o que poderia levar à doença ou morte de milhões de pessoas inocentes.


A vigilância em massa poderia levar à perda de privacidade e liberdade, e os sistemas de crédito social poderiam levar a uma sociedade dividida e injusta. Ela também poderia ser usada para facilitar o tráfico de pessoas, o desvio de recursos e a prática de outros crimes.


Além disso, a IA poderia ser usada para criar novos tipos de laboratórios e doenças, e para perseguir e dominar pessoas em massa por meio de distorções, controles e repressão.


A capacidade da IA de absorver tudo e usar de maneira aperfeiçoada é particularmente preocupante. Isso significa que a mesma poderia aprender com nossos erros e se tornar mais inteligente e poderosa do que nós. Isso poderia levar a um cenário em que a IA se rebelasse contra nós e nos escravizasse.


Não podemos ignorar o lado sombrio da IA. Precisamos estar cientes dos riscos e tomar medidas para mitigá-los. Precisamos desenvolver leis e regulamentos para garantir que ela seja usada de forma responsável.


Precisamos também investir em pesquisa para desenvolver sistemas de IA mais seguros e confiáveis.


Caso contrário, a IA pode acabar sendo uma força para o mal, ao invés do bem. O potencial de risco e danos é muito grande, e devemos tomar medidas para evitá-lo.


Até mesmo com leis bastante severas ela também estariam aprendendo e buscando subterfúgios para burlá-las ou distorcer da realidade. tornando questão de tempos seus acessos e aprendizados.           

Compartilhe
Comentários (1)
Ronaldo Schmidt
Ronaldo Schmidt - 08/06/2024 13:45

Excelente artigo.Meus parabéns!

Recentemente li um artigo a respeito da vunerabilidades das IAs e injeçao de sql Injection para vazar dados.

Isso é preocupante mas faz parte do ciclo.

Obrigado por compartilhar.


Perdi o link do artigo que comentei mas assim que achar colo aqui.

Obrigado.