Comment les systèmes d'IA doivent-ils se comporter et qui doit décider ?

Comment les systèmes d'IA doivent-ils se comporter et qui doit décider ?

Comment les systèmes d’IA doivent-ils se comporter et qui doit décider ? Intelligence des données PlatoBlockchain. Recherche verticale. Aï.

Dans la poursuite de notre mission, nous nous engageons à faire en sorte que l'accès, les avantages et l'influence sur l'IA et l'IAG soient généralisés. Nous pensons qu'il existe au moins trois éléments de base nécessaires pour atteindre ces objectifs dans le contexte du comportement du système d'IA.[^portée]

1. Améliorer le comportement par défaut. Nous voulons que le plus grand nombre possible d'utilisateurs trouvent nos systèmes d'IA utiles « prêts à l'emploi » et aient le sentiment que notre technologie comprend et respecte leurs valeurs.

À cette fin, nous investissons dans la recherche et l'ingénierie pour réduire les biais flagrants et subtils dans la façon dont ChatGPT répond aux différentes entrées. Dans certains cas, ChatGPT refuse actuellement des sorties qu'il ne devrait pas, et dans certains cas, il ne refuse pas quand il le devrait. Nous croyons que des améliorations à ces deux égards sont possibles.

De plus, nous avons des marges d'amélioration dans d'autres dimensions du comportement du système, telles que le système qui « invente des choses ». Les commentaires des utilisateurs sont inestimables pour apporter ces améliorations.

2. Définissez les valeurs de votre IA, dans de larges limites. Nous pensons que l'IA doit être un outil utile pour les individus, et donc personnalisable par chaque utilisateur jusqu'aux limites définies par la société. Par conséquent, nous développons une mise à niveau vers ChatGPT pour permettre aux utilisateurs de personnaliser facilement son comportement.

Cela signifiera autoriser les sorties du système avec lesquelles d'autres personnes (y compris nous-mêmes) peuvent être fortement en désaccord. Trouver le bon équilibre ici sera difficile - pousser la personnalisation à l'extrême risquerait de permettre utilisations malveillantes de notre technologie et des IA sycophantiques qui amplifient sans réfléchir les croyances existantes des gens.

Il y aura donc toujours des limites au comportement du système. Le défi consiste à définir quelles sont ces limites. Si nous essayons de prendre toutes ces décisions par nous-mêmes, ou si nous essayons de développer un seul système d'IA monolithique, nous manquerons à l'engagement que nous prenons dans notre Charte d'"éviter une concentration excessive du pouvoir".

3. Contribution publique sur les valeurs par défaut et les limites strictes. Une façon d'éviter une concentration excessive du pouvoir est de donner aux personnes qui utilisent ou sont affectées par des systèmes comme ChatGPT la possibilité d'influencer les règles de ces systèmes.

Nous pensons que de nombreuses décisions concernant nos valeurs par défaut et nos limites strictes doivent être prises collectivement, et bien que la mise en œuvre pratique soit un défi, nous visons à inclure autant de perspectives que possible. Comme point de départ, nous avons recherché des commentaires externes sur notre technologie sous la forme de équipe rouge. Nous avons également commencé récemment solliciter la contribution du public sur l'IA dans l'éducation (un contexte particulièrement important dans lequel notre technologie est déployée).

Nous en sommes aux premiers stades des efforts pilotes pour solliciter les commentaires du public sur des sujets tels que le comportement du système, les mécanismes de divulgation (tels que le filigrane) et nos politiques de déploiement plus largement. Nous explorons également des partenariats avec des organisations externes pour mener des audits tiers de nos efforts en matière de sécurité et de politique.

Horodatage:

Plus de OpenAI