Como os sistemas de IA devem se comportar e quem deve decidir?

Como os sistemas de IA devem se comportar e quem deve decidir?

Como devem comportar-se os sistemas de IA e quem deve decidir? Inteligência de dados PlatoBlockchain. Pesquisa vertical. Ai.

Em busca de nossa missão, estamos comprometidos em garantir que o acesso, os benefícios e a influência sobre IA e AGI sejam generalizados. Acreditamos que pelo menos três blocos de construção são necessários para atingir esses objetivos no contexto do comportamento do sistema de IA.[^escopo]

1. Melhore o comportamento padrão. Queremos que o maior número possível de usuários ache nossos sistemas de IA úteis para eles “fora da caixa” e sinta que nossa tecnologia entende e respeita seus valores.

Para esse fim, estamos investindo em pesquisa e engenharia para reduzir preconceitos evidentes e sutis em como o ChatGPT responde a diferentes entradas. Em alguns casos, o ChatGPT atualmente recusa saídas que não deveria e, em alguns casos, não recusa quando deveria. Acreditamos que a melhoria em ambos os aspectos é possível.

Além disso, temos espaço para melhorias em outras dimensões do comportamento do sistema, como o sistema “inventando coisas”. O feedback dos usuários é inestimável para fazer essas melhorias.

2. Defina os valores de sua IA, dentro de limites amplos. Acreditamos que a IA deve ser uma ferramenta útil para pessoas individuais e, portanto, personalizável por cada usuário até os limites definidos pela sociedade. Portanto, estamos desenvolvendo uma atualização para o ChatGPT para permitir que os usuários personalizem facilmente seu comportamento.

Isso significa permitir saídas do sistema com as quais outras pessoas (inclusive nós) podem discordar fortemente. Encontrar o equilíbrio certo aqui será um desafio - levar a personalização ao extremo arriscaria permitir usos maliciosos de nossa tecnologia e IAs bajuladores que amplificam sem pensar as crenças existentes das pessoas.

Portanto, sempre haverá alguns limites no comportamento do sistema. O desafio é definir quais são esses limites. Se tentarmos fazer todas essas determinações por conta própria, ou se tentarmos desenvolver um único sistema monolítico de IA, estaremos falhando no compromisso que assumimos em nossa Carta de “evitar a concentração indevida de poder”.

3. Contribuição pública sobre padrões e limites rígidos. Uma maneira de evitar a concentração indevida de poder é dar às pessoas que usam ou são afetadas por sistemas como o ChatGPT a capacidade de influenciar as regras desses sistemas.

Acreditamos que muitas decisões sobre nossos padrões e limites rígidos devem ser tomadas coletivamente e, embora a implementação prática seja um desafio, pretendemos incluir o maior número possível de perspectivas. Como ponto de partida, buscamos informações externas sobre nossa tecnologia na forma de time vermelho. Também recentemente começamos solicitando informações do público sobre IA na educação (um contexto particularmente importante no qual nossa tecnologia está sendo implantada).

Estamos nos estágios iniciais de esforços piloto para solicitar a opinião pública sobre tópicos como comportamento do sistema, mecanismos de divulgação (como marcas d'água) e nossas políticas de implantação de forma mais ampla. Também estamos explorando parcerias com organizações externas para conduzir auditorias terceirizadas de nossos esforços de segurança e política.

Carimbo de hora:

Mais de OpenAI