Si los chatbots de IA son inteligentes, también pueden ser ardillas PlatoBlockchain Data Intelligence. Búsqueda vertical. Ai.

Si los chatbots de IA son sensibles, también pueden ser ardillas

En Resumen No, los chatbots de IA no son inteligentes.

Tan pronto como el historia sobre un ingeniero de Google, que denunció lo que afirmaba que era un modelo de lenguaje consciente, se volvió viral, varias publicaciones intervinieron para decir que estaba equivocado.

El debate sobre si la empresa chatbot LaMDA es consciente o tiene alma o no no es muy buena, simplemente porque es demasiado fácil cerrar el lado que cree que sí la tiene. Como la mayoría de los grandes modelos de lenguaje, LaMDA tiene miles de millones de parámetros y fue entrenado con texto extraído de Internet. El modelo aprende las relaciones entre palabras y cuáles tienen más probabilidades de aparecer una al lado de la otra.

Parece lo suficientemente inteligente y, a veces, puede responder preguntas correctamente. Pero no sabe nada de lo que está diciendo, y no tiene una comprensión real del lenguaje ni de nada en absoluto. Los modelos de lenguaje se comportan aleatoriamente. Pregúntale si tiene sentimientos y podría decir que sí o no. Pregunta si es un ardilla, y podría decir sí o no también. ¿Es posible que los chatbots de IA sean en realidad ardillas?

La FTC da la alarma sobre el uso de IA para la moderación de contenido

La IA está cambiando Internet. Se utilizan fotos de aspecto realista en perfiles de cuentas falsas en las redes sociales, circulan videos pornográficos falsos de mujeres, imágenes y texto generados por algoritmos se publican en línea.

Los expertos han advertido que estas capacidades pueden aumentar los riesgos de fraude, bots, desinformación, acoso y manipulación. Las plataformas están recurriendo cada vez más a los algoritmos de IA para detectar y eliminar automáticamente el contenido incorrecto.

Ahora, la FTC advierte que estos métodos podrían empeorar los problemas. “Nuestro informe enfatiza que nadie debe tratar a la IA como la solución a la propagación de contenido dañino en línea”, dijo Samuel Levine, director de la Oficina de Protección al Consumidor de la FTC, dijo en un comunicado.

Desafortunadamente, la tecnología puede ser "inexacta, sesgada y discriminatoria por diseño". “Combatir el daño en línea requiere un amplio esfuerzo social, no una creencia demasiado optimista de que la nueva tecnología, que puede ser tanto útil como peligrosa, nos quitará estos problemas de las manos”, dijo Levine.

Spotify adquiere inicio de voz deepfake

El gigante de la transmisión de audio Spotify ha adquirido Sonantic, un advenedizo con sede en Londres centrado en la creación de software de inteligencia artificial capaz de generar voces completamente inventadas.

La tecnología de Sonantic se ha utilizado para juegos y en películas de Hollywood, ayudando a dar voz al actor Val Kilmer en Top Gun: Maverick. Kilmer interpretó a Iceman en la película de acción; sus líneas fueron pronunciadas por una máquina debido a dificultades para hablar después de luchar contra el cáncer de garganta.

Ahora, la misma tecnología parece estar llegando también a Spotify. La aplicación obvia sería usar las voces de IA para leer audiolibros. Spotify, después de todo, adquirido Findaway, una plataforma de audiolibros, el año pasado en noviembre. Será interesante ver si los oyentes podrán personalizar cómo quieren que suenen sus narradores automáticos. Tal vez habrá diferentes voces para leer en voz alta libros para niños en comparación con las historias de terror.

“Estamos realmente entusiasmados con el potencial de llevar la tecnología de voz de IA de Sonantic a la plataforma de Spotify y crear nuevas experiencias para nuestros usuarios”, Ziad Sultan, vicepresidente de personalización de Spotify, dijo en una oracion. “Esta integración nos permitirá involucrar a los usuarios de una manera nueva e incluso más personalizada”, insinuó.

TSA prueba software de IA para escanear equipaje automáticamente

La Administración de Seguridad del Transporte de EE. UU. probará si el software de visión por computadora puede controlar automáticamente el equipaje para buscar artículos que parezcan extraños o que no estén permitidos en los vuelos.

La prueba se llevará a cabo en un laboratorio y aún no está lista para aeropuertos reales. El software funciona con las imágenes de tomografía computarizada (TC) 3D ya existentes que los oficiales de la TSA usan actualmente para mirar a través de las bolsas de las personas en los puntos de control de seguridad. Si los agentes ven algo que parece sospechoso, llevarán el equipaje a un lado y lo revisarán.

Los algoritmos de IA pueden automatizar parte de ese proceso; pueden identificar objetos y marcar instancias donde detectan elementos particulares.

“A medida que la TSA y otras agencias de seguridad adoptan CT, esta aplicación de IA representa un salto potencialmente transformador en la seguridad de la aviación, lo que hace que los viajes aéreos sean más seguros y consistentes, al tiempo que permite que los oficiales altamente capacitados de la TSA se concentren en las maletas que representan el mayor riesgo”. dijo Alexis Long, director de producto de Pangiam, la empresa de tecnología que trabaja con la administración.

“Nuestro objetivo es utilizar tecnologías de inteligencia artificial y visión por computadora para mejorar la seguridad al proporcionar a la TSA y a los oficiales de seguridad herramientas poderosas para detectar elementos prohibitivos que pueden representar una amenaza para la seguridad de la aviación; es un paso significativo hacia el establecimiento de un nuevo estándar de seguridad con implicaciones mundiales”. ®

Sello de tiempo:

Mas de El registro