ChatGPT: tornando o uso mais seguro
É importante iniciar esse artigo deixando claro que não vamos colocar o ChatGPT como um vilão, afinal essa ferramenta pode ser transformadora.
As técnicas usadas para criá-lo são bem conhecidas e na primeira parte deste blog, examinamos a poderosa tecnologia que é o ChatGPT.
Nesta segunda e última parte, exploramos quais são as melhores práticas necessárias para tornar seu uso o mais seguro possível e embora a quantidade de computação necessária pareça heroica agora, em um futuro relativamente próximo ela será muito mais acessível. Mesmo que os preços de computação não caiam radicalmente em um futuro próximo, o tipo de computação necessária para criar o GPT3.5 já está disponível para muitos atores estatais e uma ampla gama de atores não estatais.
O Google anunciou ‘Bard’ com base em sua tecnologia LAMDA, que é tão atraente que um engenheiro interno se convenceu de que tinha uma alma e a Deepmind desenvolveu um chatbot chamado ‘Sparrow’, que é ‘reivindicado por alguns’ como tecnicamente superior ao ChatGPT.
Os grandes perigos provavelmente não virão de superempresas sofisticadas como a Alphabet. As empresas menores com uma atitude de ‘agir rápido e quebrar as coisas’ tendem a ser criativas e aventureiras com suas ideias de aplicativos. Mas danos muito reais a pessoas reais são possíveis com esse tipo de sistema, e eles podem ser implementados fácil e rapidamente por pequenas equipes não especializadas.
Cinco dicas importantes para tornar o ChatGPT mais seguro
Embora existam muitos caminhos para ‘não’ e apenas um para ‘sim’, ainda haverá muitos aplicativos qualificados como razoáveis, mas isso não os tornará seguros. Para ter confiança em um aplicativo com tecnologia ChatGPT, também é sugerido que as etapas a seguir sejam implementadas.
- Não deve haver engano sobre com o que os usuários estão interagindo. Você não pode dar seu consentimento se não tiver as informações. Saleema Amershi et al [1] publicaram excelentes diretrizes para interação de sistemas de IA. É importante ressaltar que eles fornecem estrutura para considerar a interação durante todo o ciclo de vida de uma interação do usuário. As diretrizes cobrem como deixar claro para o usuário com o que ele está interagindo e como instruí-lo sobre o que se espera dele. A orientação de Amershi se estende por toda a interação, gerenciando falhas e horas extras à medida que o sistema se torna ‘business as usual’.
⠀⠀⠀⠀⠀⠀⠀⠀ - Os usuários devem ter a opção de não interagir com o sistema. Uma opção real – por exemplo, um canal de contato alternativo.
⠀⠀⠀⠀⠀⠀⠀⠀ - Deve haver uma avaliação de impacto anexada a cada candidatura. Coloque-o no site como faria com um arquivo robots.txt ou como adicionaria uma licença ao seu código-fonte. O processo AIA canadense oferece um modelo para esse tipo de coisa, mas algumas questões fundamentais são um bom começo. Há quem vá se prejudicar se funcionar como planejado? Quem vá se machucar se o chatGPT der errado? Alguém pode dizer se está dando errado e pará-lo para reparar a situação?
⠀⠀⠀⠀⠀⠀⠀⠀ - Se o seu sistema puder ter um efeito adverso em outros, deve haver monitoramento e registro do que o sistema está fazendo e como está se comportando. Estes devem ser mantidos de forma a permitir a investigação forense do comportamento do sistema, se necessário.
⠀⠀⠀⠀⠀⠀⠀⠀ - Se você não for pessoal e diretamente responsável pelo sistema, um processo de governança claramente documentado deve ser desenvolvido e mantido. Parte disso deve descrever como os usuários podem pedir ajuda e como podem reclamar do sistema. Também deve descrever como devem ser os processos para abordar o sofrimento e as reclamações do usuário.
O ChatGPT pode ser transformador se torna-lo seguro em qualquer aplicativo de uso.
Potencial para grande valor em muitos casos de uso
Em um novo documento de thought leadership da GFT ‘Usando o ChatGPT com segurança’, expus quais são os possíveis problemas com os aplicativos baseados no ChatGPT e algumas táticas para evitá-los e mitigá-los na prática. Espero que nossa comunidade aprofunde e desenvolva essas abordagens em um futuro próximo.
Com os controles e processos corretos, novos modelos de linguagem grandes, como o ChatGPT, fornecerão grande valor em muitos casos de uso, embora com os controles e verificações essenciais em vigor, para garantir que os usuários finais estejam protegidos contra qualquer mal-entendido.
Você pode baixar o documento de liderança de pensamento ‘Usando o ChatGPT com segurança’ aqui .
Este artigo foi originalmente publicado pela GFT UK e foi traduzido e adaptado para a GFT Brasil, para quem tem interesse em ler o artigo original, clique no link a seguir: ChatGPT: Making things safer.
Amershi, Saleema. ‘Diretrizes para Interação Humano-IA.’ Conferência CHI sobre fatores humanos em sistemas de computação. CHI, 2019. 1–13 .