Als AI-chatbots gevoelig zijn, kunnen ze ook eekhoorns zijn PlatoBlockchain Data Intelligence. Verticaal zoeken. Ai.

Als AI-chatbots gevoelig zijn, kunnen het ook eekhoorns zijn

In het kort Nee, AI-chatbots zijn niet bewust.

Zodra de verhaal op een Google-ingenieur, die de klok blies op wat hij beweerde een bewust taalmodel was, viraal ging, kwamen meerdere publicaties tussenbeide om te zeggen dat hij ongelijk had.

De debat over de vraag of het bedrijf LaMDA-chatbot bewust is of een ziel heeft of niet, is niet erg goed, alleen maar omdat het te gemakkelijk is om de kant die gelooft van wel, af te sluiten. Zoals de meeste grote taalmodellen, heeft LaMDA miljarden parameters en is het getraind op tekst die van internet is geschraapt. Het model leert de relaties tussen woorden en welke woorden vaker naast elkaar verschijnen.

Het lijkt intelligent genoeg en kan soms vragen correct beantwoorden. Maar het weet niets van wat het zegt, en heeft geen echt begrip van taal of wat dan ook. Taalmodellen gedragen zich willekeurig. Vraag het of het gevoelens heeft en het kan ja zeggen of geen. Vraag of het een is eekhoorn, en het kan ook ja of nee zeggen. Is het mogelijk dat AI-chatbots eigenlijk eekhoorns zijn?

FTC slaat alarm over het gebruik van AI voor contentmoderatie

AI verandert het internet. Realistisch ogende foto's worden gebruikt in profielen van valse accounts op sociale media, pornografische deepfake-video's van vrouwen circuleren, afbeeldingen en tekst gegenereerd door algoritmen worden online geplaatst.

Experts hebben gewaarschuwd dat deze mogelijkheden het risico op fraude, bots, verkeerde informatie, intimidatie en manipulatie kunnen vergroten. Platforms wenden zich steeds meer tot AI-algoritmen om automatisch slechte inhoud te detecteren en te verwijderen.

Nu waarschuwt de FTC dat deze methoden de problemen kunnen verergeren. "Ons rapport benadrukt dat niemand AI mag beschouwen als de oplossing voor de verspreiding van schadelijke online inhoud", zegt Samuel Levine, directeur van het Bureau of Consumer Protection van de FTC. zei in een verklaring.

Helaas kan de technologie "door ontwerp onnauwkeurig, bevooroordeeld en discriminerend" zijn. "Het bestrijden van online schade vereist een brede maatschappelijke inspanning, niet een al te optimistische overtuiging dat nieuwe technologie - die zowel nuttig als gevaarlijk kan zijn - deze problemen uit handen zal nemen," zei Levine.

Spotify snapt deepfake voice startup

Audiostreaminggigant Spotify heeft Sonantic overgenomen, een in Londen gevestigde parvenu die zich richt op het bouwen van AI-software die volledig verzonnen stemmen kan genereren.

De technologie van Sonantic is gebruikt voor gaming en in Hollywood-films, waardoor acteur Val Kilmer een stem kreeg in Top Gun: Maverick. Kilmer speelde Iceman in de actiefilm; zijn regels werden uitgesproken door een machine vanwege spraakproblemen na het vechten tegen keelkanker.

Nu lijkt dezelfde technologie ook zijn weg naar Spotify te vinden. De voor de hand liggende toepassing zou zijn om de AI-stemmen te gebruiken om audioboeken te lezen. Spotify, tenslotte verworven Findaway, een audioboekplatform, vorig jaar in november. Het zal interessant zijn om te zien of luisteraars kunnen aanpassen hoe ze willen dat hun machinevertellers klinken. Misschien zijn er andere stemmen voor het voorlezen van kinderboeken dan voor horrorverhalen.

"We zijn erg enthousiast over het potentieel om Sonantic's AI-spraaktechnologie op het Spotify-platform te brengen en nieuwe ervaringen voor onze gebruikers te creëren", zegt Ziad Sultan, Spotify's vice-president van personalisatie, zei in een verklaring. "Deze integratie stelt ons in staat om gebruikers op een nieuwe en nog persoonlijkere manier te betrekken", liet hij doorschemeren.

TSA test AI-software om bagage automatisch te scannen

De Amerikaanse Transportation Security Administration gaat testen of computer vision-software automatisch bagage kan screenen om te letten op items die er vreemd uitzien of die niet zijn toegestaan ​​op vluchten.

De proef vindt plaats in een laboratorium en is nog niet klaar voor echte luchthavens. De software werkt met de reeds bestaande 3D Computed Tomography (CT)-beeldvorming die TSA-agenten momenteel gebruiken om door de tassen van mensen te gluren bij veiligheidscontroles. Als agenten iets verdachts zien, zullen ze de bagage opzij zetten en er doorheen schieten.

AI-algoritmen kunnen een deel van dat proces automatiseren; ze kunnen objecten identificeren en instanties markeren waar ze bepaalde items detecteren.

"Terwijl TSA en andere beveiligingsinstanties CT gebruiken, betekent deze toepassing van AI een potentieel transformatieve sprong in de luchtvaartbeveiliging, waardoor vliegreizen veiliger en consistenter worden, terwijl de hoog opgeleide officieren van TSA zich kunnen concentreren op tassen die het grootste risico vormen", zei Alexis Long, productdirecteur bij Pangiam, het technologiebedrijf dat met de administratie werkt.

"Ons doel is om AI- en computervisietechnologieën te gebruiken om de beveiliging te verbeteren door TSA en beveiligingsfunctionarissen te voorzien van krachtige tools om onbetaalbare items te detecteren die een bedreiging kunnen vormen voor de luchtvaartbeveiliging. Dit is een belangrijke stap in de richting van een nieuwe beveiligingsstandaard met wereldwijde implicaties." ®

Tijdstempel:

Meer van Het register