Si les chatbots IA sont sensibles, ils peuvent aussi être des écureuils PlatoBlockchain Data Intelligence. Recherche verticale. Aï.

Si les chatbots IA sont sensibles, ils peuvent aussi être des écureuils

En bref Non, les chatbots IA ne sont pas sensibles.

Juste dès que le DE BOUBA sur un ingénieur de Google, qui a dénoncé ce qu'il prétendait être un modèle de langage sensible, est devenu viral, plusieurs publications sont intervenues pour dire qu'il avait tort.

La débat sur la question de savoir si l'entreprise Chatbot LaMDA est conscient ou a une âme ou non n'est pas très bon, juste parce qu'il est trop facile d'arrêter le côté qui le croit. Comme la plupart des grands modèles de langage, LaMDA a des milliards de paramètres et a été formé sur du texte extrait d'Internet. Le modèle apprend les relations entre les mots et ceux qui sont les plus susceptibles d'apparaître les uns à côté des autres.

Il semble assez intelligent et est parfois capable de répondre correctement aux questions. Mais il ne sait rien de ce qu'il dit et n'a aucune compréhension réelle du langage ou de quoi que ce soit d'autre. Les modèles de langage se comportent de manière aléatoire. Demandez-lui s'il a des sentiments et il pourrait dire oui ou aucune. Demandez si c'est un écureuil, et il pourrait dire oui ou non aussi. Est-il possible que les chatbots IA soient en fait des écureuils ?

La FTC sonne l'alarme sur l'utilisation de l'IA pour la modération de contenu

L'IA change Internet. Des photos réalistes sont utilisées dans les profils de faux comptes sur les réseaux sociaux, des vidéos pornographiques deepfake de femmes circulent, des images et du texte générés par des algorithmes sont mis en ligne.

Les experts ont averti que ces fonctionnalités peuvent augmenter les risques de fraude, de bots, de désinformation, de harcèlement et de manipulation. Les plateformes se tournent de plus en plus vers les algorithmes d'IA pour détecter et supprimer automatiquement les mauvais contenus.

Maintenant, la FTC avertit que ces méthodes pourraient aggraver les problèmes. "Notre rapport souligne que personne ne devrait considérer l'IA comme la solution à la diffusion de contenu en ligne préjudiciable", a déclaré Samuel Levine, directeur du Bureau de la protection des consommateurs de la FTC. a affirmé Valérie Plante. dans un communiqué.

Malheureusement, la technologie peut être «inexacte, biaisée et discriminatoire de par sa conception». "Lutter contre les dommages en ligne nécessite un large effort sociétal, pas une croyance trop optimiste que la nouvelle technologie - qui peut être à la fois utile et dangereuse - nous débarrassera de ces problèmes", a déclaré Levine.

Spotify s'empare d'un démarrage vocal deepfake

Le géant du streaming audio Spotify a acquis Sonantic, une start-up basée à Londres qui se concentre sur la création de logiciels d'intelligence artificielle capables de générer des voix entièrement inventées.

La technologie de Sonantic a été utilisée pour les jeux et dans les films hollywoodiens, aidant à donner à l'acteur Val Kilmer une voix dans Top Gun: Maverick. Kilmer a joué Iceman dans le film d'action; ses lignes ont été prononcées par une machine en raison de difficultés d'élocution après avoir lutté contre un cancer de la gorge.

Maintenant, la même technologie semble également faire son chemin vers Spotify. L'application évidente serait d'utiliser les voix de l'IA pour lire des livres audio. Spotify, après tout, a acquise Findaway, une plateforme de livres audio, l'année dernière en novembre. Il sera intéressant de voir si les auditeurs seront en mesure de personnaliser la façon dont ils veulent que leurs narrateurs automatiques sonnent. Peut-être y aura-t-il des voix différentes pour lire à haute voix des livres pour enfants par rapport aux histoires d'horreur.

"Nous sommes vraiment enthousiasmés par le potentiel d'apporter la technologie vocale AI de Sonantic sur la plate-forme Spotify et de créer de nouvelles expériences pour nos utilisateurs", a déclaré Ziad Sultan, vice-président de la personnalisation de Spotify, a affirmé Valérie Plante. dans un rapport. "Cette intégration nous permettra d'engager les utilisateurs d'une manière nouvelle et encore plus personnalisée", a-t-il laissé entendre.

La TSA teste un logiciel d'intelligence artificielle pour scanner automatiquement les bagages

La Transportation Security Administration des États-Unis testera si un logiciel de vision par ordinateur peut automatiquement contrôler les bagages pour rechercher des objets qui semblent étranges ou qui ne sont pas autorisés sur les vols.

L'essai aura lieu dans un laboratoire et n'est pas encore prêt pour les vrais aéroports. Le logiciel fonctionne avec l'imagerie par tomodensitométrie (CT) 3D déjà existante que les agents de la TSA utilisent actuellement pour jeter un coup d'œil à travers les sacs des personnes aux points de contrôle de sécurité. Si les agents voient quelque chose de suspect, ils mettront les bagages de côté et les fouilleront.

Les algorithmes d'IA peuvent automatiser une partie de ce processus ; ils peuvent identifier des objets et signaler des instances où ils détectent des éléments particuliers.

"Alors que la TSA et d'autres agences de sécurité adoptent le CT, cette application de l'IA représente un saut potentiellement transformateur dans la sécurité aérienne, rendant les voyages aériens plus sûrs et plus cohérents, tout en permettant aux agents hautement qualifiés de la TSA de se concentrer sur les sacs qui présentent le plus grand risque", a affirmé Valérie Plante. Alexis Long, directeur produit chez Pangiam, l'entreprise technologique qui travaille avec l'administration.

"Notre objectif est d'utiliser l'intelligence artificielle et les technologies de vision par ordinateur pour améliorer la sécurité en fournissant à la TSA et aux agents de sécurité des outils puissants pour détecter les éléments prohibitifs qui peuvent constituer une menace pour la sécurité aérienne. C'est une étape importante vers l'établissement d'une nouvelle norme de sécurité avec des implications mondiales." ®

Horodatage:

Plus de Le registre