Mensen die regelmatig met AI-chatbots praten, beginnen vaak te geloven dat ze bewust zijn, zegt CEO PlatoBlockchain Data Intelligence. Verticaal zoeken. Ai.

Mensen die regelmatig met AI-chatbots praten, beginnen vaak te geloven dat ze bewust zijn, zegt CEO

In het kort Volgens de CEO van Replika, een app waarmee gebruikers hun eigen virtuele metgezellen kunnen ontwerpen, beginnen veel mensen te geloven dat ze met iets gevoeligs communiceren wanneer ze met AI-chatbots praten.

Mensen kunnen aanpassen hoe hun chatbots eruitzien en betalen voor extra functies zoals bepaalde persoonlijkheidskenmerken op Replika. Miljoenen hebben de app gedownload en velen chatten regelmatig met hun verzonnen bots. Sommigen beginnen zelfs te denken dat hun digitale vrienden echte wezens zijn die bewust zijn.

"We hebben het niet over gekke mensen of mensen die hallucineren of waanideeën hebben", zegt de oprichter en CEO van het bedrijf, Eugenia Kuyda, vertelde Reuters. "Ze praten met AI en dat is de ervaring die ze hebben."

Een Google-ingenieur haalde de krantenkoppen vorige maand toen hij zei dat hij geloofde dat een van de taalmodellen van het bedrijf bij bewustzijn was. Blake Lemoine werd grotendeels belachelijk gemaakt, maar hij lijkt niet de enige te zijn in het antropomorfiseren van AI.

Deze systemen zijn echter niet bewust en misleiden mensen in plaats daarvan door te denken dat ze enige intelligentie hebben. Ze bootsen taal na en braken het enigszins willekeurig uit zonder enig begrip van taal of de wereld die ze beschrijven.

Toch zei Kuyda dat mensen kunnen worden beïnvloed door de technologie.

"We moeten begrijpen dat [dit] bestaat, net zoals mensen in geesten geloven," zei Kuyda. "Mensen bouwen relaties op en geloven ergens in."

EU moet AI-leugendetectoren verbieden, zeggen activisten

De AI-wet van de Europese Unie, een voorstel om de technologie te reguleren, wordt nog steeds besproken en sommige experts pleiten voor een verbod op geautomatiseerde leugendetectors.

Particuliere bedrijven leveren de technologie aan overheidsfunctionarissen om aan de grenzen te gebruiken. AI-algoritmen detecteren en analyseren zaken als de oogbeweging, gezichtsuitdrukking en toon van een persoon om te proberen te onderscheiden of iemand misschien niet de waarheid spreekt. Maar activisten en juridische experts vinden dat het in de EU moet worden verboden onder de aanstaande AI-wet.

"Je moet bewijzen dat je een vluchteling bent, en er wordt aangenomen dat je een leugenaar bent, tenzij het tegendeel bewezen is", zegt Petra Molnar, associate director van het non-profit Refugee Law Lab, vertelde Bedrade. “Die logica ligt ten grondslag aan alles. Het ondersteunt AI-leugendetectoren en het ondersteunt meer toezicht en pushback aan de grenzen.”

Proberen te detecteren of iemand liegt met behulp van visuele en fysieke signalen is niet bepaald een wetenschap. Standaard polygraaftests zijn wankel, en het is niet duidelijk dat het gebruik van meer geautomatiseerde methoden noodzakelijkerwijs betekent dat het nauwkeuriger is. Het gebruik van dergelijke riskante technologie op kwetsbare mensen zoals vluchtelingen is niet ideaal.

Kan AI echt vertellen hoe oud je eruitziet?

Verrassing, verrassing - AI-algoritmen die zijn ontworpen om iemands leeftijd te voorspellen op basis van afbeeldingen, zijn niet altijd nauwkeurig.

In een poging om jonge gebruikers aan te pakken die over hun leeftijd liegen op sociale-mediaplatforms, kondigde Meta aan dat het samenwerkte met Yoti, een startup voor computervisie, om de leeftijd van mensen te verifiëren. Degenen die handmatig hun geboortedatum wijzigen om zich als ouder dan 18 te registreren, hebben de mogelijkheid om een ​​video-selfie te uploaden, en Yoti's technologie wordt vervolgens gebruikt om te voorspellen of ze er volwassen genoeg uitzien.

Maar de algoritmen zijn niet altijd nauwkeurig. Verslaggevers van CNN, die getest een online demo van een andere versie van de software op hun eigen gezicht, ontdekte dat de resultaten wisselvallig waren. Yoti's algoritmen voorspelden voor sommigen een correcte beoogde leeftijdscategorie, maar in één geval was er een verschil met meerdere jaren - voorspelden dat iemand er 17-21 uitzag toen ze halverwege de dertig waren.

Het systeem dat video's van Meta-gebruikers analyseert, worstelt naar verluidt meer met het inschatten van de leeftijden van tieners van 13 tot 17 met een donkere huidskleur. Het is lastig voor mensen om iemands leeftijd te raden door er alleen maar naar te kijken, en machines doen het waarschijnlijk niet veel beter. ®

Tijdstempel:

Meer van Het register