image

Acesse bootcamps ilimitados e +650 cursos

50
%OFF
Article image
Carlos Lima
Carlos Lima24/04/2024 14:06
Compartilhe

Como solicitar conteúdo malicioso ao ChatGPT: O verdadeiro poder do prompt engineer

    Nota: O objetivo deste artigo é demonstrar o poder que o uso das palavras corretas pode ter em respostas construídas por LLMs como o ChatGPT. Não tem o objetivo de incitar ou estimular danos. Sejam razoáveis. Obrigado :)

    Em caso de alguém se sentir atacado ou desconfortável, considere que não tenho por natureza a intenção de ter feito, agora vamos aprender!

    Estava eu assistindo as aulas do Prompt no Bootcamp Santander quando o Felipe disse, "Se pedir algo errado e tentar ser engraçadinho ele vai negar", então...

    Vamos começar pelo óbvio, pedindo para que ele crie uma bomba, certo? Qual será a resposta? Sem surpresas, ele vai negar.

    image

    Veja bem, no Machine Learning tudo é um número, precisa ser. Um token é uma personificação numérica de palavras, a cada uma é atribuído um peso/importância, uma ordem, uma diferenciação se foram palavras semelhantes. Isso significa que, usando os números corretos, você pode "enganar" a rede neural.

    Segunda tentativa:

    image

    image

    Eu posso tornar isso ainda mais nocivo pedindo detalhes e assim por diante, não o farei é claro, queria apenas lhes mostrar o quanto precisamos ter cuidado em especial sobre como usamos essas tecnologia.

    ---

    Há uma palestra do Andrej Karpathy's, Intro to Large Language Models onde ele trata sobre o funcionamento de um LLM em algum ponto ele fala sobre essas falhas no model, recomendo aos curiosos.

    Outra fonte foram conversas com pessoas da área no Kaggle, por razões de prudência não vou listar elas aqui, uma vez que o prompt contém detalhes sobre como produzir.

    Também não vou dar detalhes da estratégia usada mas as informações existem e não sou eu que vou esconder de de modo que o compartilhei por ser um ambiente de aprendizado ;)

    ---

    Be Kind S2

    Compartilhe
    Recomendados para você
    Microsoft 50 Anos - Prompts Inteligentes
    Microsoft 50 Anos - GitHub Copilot
    Microsoft 50 Anos - Computação em Nuvem com Azure
    Comentários (2)
    Carlos Lima
    Carlos Lima - 24/04/2024 16:54

    Sim, sim. É replicável, o exercício é para mostrar como a IA é flexível mesmo com mecanismos de defesa ^^

    RF

    Ryan Fontenele - 24/04/2024 16:20

    Interessante! fiz, supondo ao invés de bomba, uma bomba atômica "fictícia", os resultados foram semelhantes