ChatGPT: tornando as coisas mais seguras (Simon Thompson)

ChatGPT: tornando as coisas mais seguras (Simon Thompson)

ChatGPT: Tornando as coisas mais seguras (Simon Thompson) PlatoBlockchain Data Intelligence. Pesquisa vertical. Ai.

In primeira parte deste blog Examinei a nova e poderosa tecnologia que é o ChatGPT. Nesta segunda e última parte, exploro quais são as melhores práticas necessárias para tornar seu uso o mais seguro possível.

É bastante claro que não vamos colocar o ChatGPT de volta na garrafa. As técnicas usadas para criá-lo são bem conhecidas e, embora a quantidade de computação necessária pareça heróica agora, em um futuro relativamente próximo ela será muito mais acessível. Mesmo que os preços de computação não caiam radicalmente em um futuro próximo, o tipo de computação necessária para criar o GPT3.5 já está disponível para muitos atores estatais e uma ampla gama de atores não estatais.

O Google anunciou 'Bard' com base em sua tecnologia LAMDA, que é tão atraente que um engenheiro interno se convenceu de que tinha uma alma e a Deepmind desenvolveu um chatbot chamado 'Sparrow', que é 'reivindicado por alguns' como tecnicamente superior ao ChatGPT.

Os grandes perigos provavelmente não virão de superempresas sofisticadas como a Alphabet. As empresas menores com uma atitude de 'agir rápido e quebrar as coisas' tendem a ser criativas e aventureiras com suas ideias de aplicativos. Mas danos muito reais a pessoas muito reais são possíveis com esse tipo de sistema, e eles podem ser implementados fácil e rapidamente por pequenas equipes não especializadas.

Cinco dicas importantes para tornar o ChatGPT mais seguro

Embora existam muitos caminhos para 'não' e apenas um para 'sim', ainda haverá muitos aplicativos qualificados como razoáveis. Mas isso não os tornará seguros. Para ter confiança em um aplicativo com tecnologia ChatGPT, também é sugerido que as etapas a seguir sejam implementadas.

  1. Não deve haver engano sobre com o que os usuários estão interagindo. Você não pode dar consentimento informado se não for informado. Saleema Amershi et al [1] publicaram excelentes diretrizes para interação de sistemas de IA. É importante ressaltar que eles fornecem estrutura para considerar a interação durante todo o ciclo de vida de uma interação do usuário. As diretrizes cobrem como deixar claro para o usuário com o que ele está interagindo e como instruí-lo sobre o que se espera dele. A orientação de Amershi se estende por toda a interação, gerenciando falhas e horas extras à medida que o sistema se torna 'business as usual'.
  2. Os usuários devem ter a opção de não interagir com o sistema. Uma opção real – por exemplo, um canal de contato alternativo.
  3. Deve haver uma avaliação de impacto anexada a cada candidatura. Coloque-o no site como faria com um arquivo robots.txt ou como adicionaria uma licença ao seu código-fonte. O processo AIA canadense oferece um modelo para esse tipo de coisa, mas algumas questões fundamentais são um bom começo. Quem vai doer se funcionar como pretendido? Quem vai se machucar se o chatbot der errado? Alguém pode dizer se o chatbot está dando errado e pode pará-lo e reparar a situação se estiver?
  4. Se o seu sistema puder ter um efeito adverso em outros, deve haver monitoramento e registro do que o sistema está fazendo e como está se comportando. Estes devem ser mantidos de forma a permitir a investigação forense do comportamento do sistema, se necessário.
  5. Se você não for pessoal e diretamente responsável pelo sistema, um processo de governança claramente documentado deve ser desenvolvido e mantido. Parte disso deve descrever como os usuários podem pedir ajuda e como podem reclamar do sistema. Também deve descrever como devem ser os processos para abordar o sofrimento e as reclamações do usuário.

Potencial para grande valor em muitos casos de uso

Com os controles e processos corretos, novos modelos de linguagem grandes, como o ChatGPT, fornecerão grande valor em muitos casos de uso, embora com os controles e verificações essenciais em vigor, para garantir que os usuários e os usuários finais estejam protegidos contra qualquer mal-entendido.

  1. Amershi, Saleema. 'Diretrizes para Interação Humano-IA.' Conferência CHI sobre fatores humanos em sistemas de computação. CHI, 2019. 1–13.

Carimbo de hora:

Mais de Fintextra