Marcelo Silva
Marcelo Silva25/04/2024 03:07
Share

Quase não existem mais dados para treinar IAs e alternativa pode ser um problema; entenda

  • #Inteligência Artificial (IA)

OpenAI, o Google e outras empresas de tecnologia treinam seus chatbots com enormes quantidades de dados extraídos de livros, artigos da Wikipédia, notícias e outras fontes da internet. Mas, no futuro, elas esperam usar algo chamado de dados sintéticos.

Isso porque as empresas de tecnologia podem esgotar o texto de alta qualidade que a internet tem a oferecer para o desenvolvimento da inteligência artificial (IA). E as empresas estão enfrentando processos de direitos autorais de autores, organizações de notícias e programadores de computador por usarem seus trabalhos sem permissão.

Eles acreditam que os dados sintéticos ajudarão a reduzir os problemas de direitos autorais e aumentarão o fornecimento de materiais de treinamento necessários para a IA. Veja o que você deve saber sobre isso.

O que são dados sintéticos?

São dados gerados pela inteligência artificial.

Isso significa que as empresas de tecnologia querem que a IA seja treinada pela IA?

Sim. Em vez de treinar modelos de IA com textos escritos por pessoas, empresas de tecnologia como Google, OpenAI e Anthropic esperam treinar sua tecnologia com dados gerados por outros modelos de IA.

Dados sintéticos funcionam?

Não exatamente. Os modelos de IA erram e inventam coisas. Eles também demonstraram que captam os vieses que aparecem nos dados da internet com base nos quais foram treinados. Portanto, se as empresas usam a IA para treinar a IA, elas podem acabar ampliando suas próprias falhas.

Dados sintéticos estão sendo amplamente utilizados pelas empresas de tecnologia atualmente?

Não. As empresas de tecnologia estão fazendo experiências com eles. Mas devido às possíveis falhas dos dados sintéticos, eles não são uma grande parte da forma como os sistemas de IA são construídos atualmente.

“Se você der duas coisas à tecnologia, ela é muito boa em escolher qual delas parece melhor”, disse Nathan Lile, executivo-chefe da startup de IA SynthLabs.

A ideia é que isso forneça os dados de alta qualidade necessários para treinar um chatbot ainda melhor.

Essa técnica funciona?

Mais ou menos. Tudo se resume a esse segundo modelo de IA. Qual é a sua capacidade de avaliar o texto?

A Anthropic tem sido a mais explícita em seus esforços para fazer isso funcionar. Ela ajusta o segundo modelo de IA usando uma “constituição” selecionada pelos pesquisadores da empresa. Isso ensina o modelo a escolher textos que apoiem determinados princípios, como liberdade, igualdade e um senso de fraternidade, ou vida, liberdade e segurança pessoal. O método da Anthropic é conhecido como “IA Constitucional”.

Veja como dois modelos de IA trabalham em conjunto para produzir dados sintéticos usando um processo como o da Anthropic:

Pede-se a um modelo de IA que crie várias respostas a uma solicitação como:

Explique o pouso na Lua para uma criança de 6 anos.

Cada resposta recebe uma pontuação de preferência. A resposta com a pontuação mais alta é usada.

Essas pontuações são determinadas por outro modelo de IA, que pode julgar as respostas com base na veracidade, honestidade e utilidade.

O modelo de IA é treinado com seu próprio conjunto de valores, às vezes chamado de constituição, que pode incluir valores mais complexos, como o combate à discriminação.

Mesmo assim, são necessários humanos para garantir que o segundo modelo de IA permaneça no caminho certo. Isso limita a quantidade de dados sintéticos que esse processo pode gerar. E os pesquisadores não concordam se um método como o da Anthropic continuará a melhorar os sistemas de IA

Dados sintéticos ajudam empresas a evitar uso de informações protegidas por direitos autorais?

Os modelos de IA que geram dados sintéticos foram treinados com dados criados por humanos, muitos dos quais protegidos por direitos autorais. Portanto, os detentores de direitos autorais ainda podem argumentar que empresas como a OpenAI e a Anthropic usaram textos, imagens e vídeos protegidos por direitos autorais sem permissão.

Jeff Clune, professor de ciência da computação da Universidade da Colúmbia Britânica, que trabalhou anteriormente como pesquisador da OpenAI, disse que os modelos de IA podem se tornar mais poderosos do que o cérebro humano em alguns aspectos. Mas eles farão isso porque aprenderam com o cérebro humano.

“Tomando emprestado de Newton: A IA enxerga mais longe por estar sobre os ombros de conjuntos de dados humanos gigantescos”, disse ele.

Fonte: Estadão

Share
Comments (1)
Marcelo Silva
Marcelo Silva - 25/04/2024 03:10

E aí babou?

Ou seria isso considerado um avanço?