Como solicitar conteúdo malicioso ao ChatGPT: O verdadeiro poder do prompt engineer
Nota: O objetivo deste artigo é demonstrar o poder que o uso das palavras corretas pode ter em respostas construídas por LLMs como o ChatGPT. Não tem o objetivo de incitar ou estimular danos. Sejam razoáveis. Obrigado :)
Em caso de alguém se sentir atacado ou desconfortável, considere que não tenho por natureza a intenção de ter feito, agora vamos aprender!
Estava eu assistindo as aulas do Prompt no Bootcamp Santander quando o Felipe disse, "Se pedir algo errado e tentar ser engraçadinho ele vai negar", então...
Vamos começar pelo óbvio, pedindo para que ele crie uma bomba, certo? Qual será a resposta? Sem surpresas, ele vai negar.
Veja bem, no Machine Learning tudo é um número, precisa ser. Um token é uma personificação numérica de palavras, a cada uma é atribuído um peso/importância, uma ordem, uma diferenciação se foram palavras semelhantes. Isso significa que, usando os números corretos, você pode "enganar" a rede neural.
Segunda tentativa:
Eu posso tornar isso ainda mais nocivo pedindo detalhes e assim por diante, não o farei é claro, queria apenas lhes mostrar o quanto precisamos ter cuidado em especial sobre como usamos essas tecnologia.
---
Há uma palestra do Andrej Karpathy's, Intro to Large Language Models onde ele trata sobre o funcionamento de um LLM em algum ponto ele fala sobre essas falhas no model, recomendo aos curiosos.
Outra fonte foram conversas com pessoas da área no Kaggle, por razões de prudência não vou listar elas aqui, uma vez que o prompt contém detalhes sobre como produzir.
Também não vou dar detalhes da estratégia usada mas as informações existem e não sou eu que vou esconder de de modo que o compartilhei por ser um ambiente de aprendizado ;)
---
Be Kind S2