Preocupările tot mai mari cu privire la siguranța ChatGPT evidențiază nevoia de educație publică și transparență cu privire la riscurile AI

Preocupările tot mai mari cu privire la siguranța ChatGPT evidențiază nevoia de educație publică și transparență cu privire la riscurile AI

Preocupările în creștere cu privire la siguranța ChatGPT evidențiază nevoia de educație publică și transparență cu privire la riscurile AI PlatoBlockchain Data Intelligence. Căutare verticală. Ai.

Creșterea inteligenței artificiale (AI) a creat un val de preocupări cu privire la siguranță și confidențialitate, în special pe măsură ce aceste tehnologii devin mai avansate și integrate în viața noastră de zi cu zi. Unul dintre cele mai proeminente exemple de tehnologie AI este Chat GPT, un model de limbaj de inteligență artificială care a fost creat de OpenAI și este susținut de Microsoft. Până acum, milioane de oameni au folosit deja ChatGPT de când a fost lansat în noiembrie 2022.

În ultimele zile, căutările după „Este sigur ChatGPT?” au crescut vertiginos pe măsură ce oamenii din întreaga lume își exprimă îngrijorările cu privire la riscurile potențiale asociate cu această tehnologie.

Conform datelor de la Google Trends, căutările după „Este sigur ChatGPT?” au crescut cu 614% din 16 martie. Datele au fost descoperite de Cryptomaniaks.com, o platformă de educație cripto de frunte care este dedicată ajutării noilor veniți și începătorilor în criptomonede să înțeleagă lumea blockchain-ului și criptomonedei.

Creșterea căutărilor de informații despre siguranța ChatGPT evidențiază necesitatea unei mai mari educații publice și transparență în ceea ce privește sistemele AI și riscurile potențiale ale acestora. Pe măsură ce tehnologia AI precum ChatGPT continuă să avanseze și să se integreze în viața noastră de zi cu zi, este esențial să abordăm preocupările de siguranță care apar, deoarece ar putea exista pericole potențiale asociate cu utilizarea ChatGPT sau a oricărui alt chatbot AI.

ChatGPT este conceput pentru a ajuta utilizatorii să genereze răspunsuri umane la întrebările lor și să se angajeze în conversații. Deci, preocupările legate de confidențialitate sunt unul dintre cele mai semnificative riscuri asociate cu utilizarea ChatGPT. Atunci când utilizatorii interacționează cu ChatGPT, aceștia pot împărtăși din neatenție informații personale despre ei, cum ar fi numele, locația și alte date sensibile. Aceste informații ar putea fi vulnerabile la hacking sau la alte forme de atacuri cibernetice.

O altă îngrijorare este potențialul de dezinformare. ChatGPT este programat să genereze răspunsuri pe baza intrărilor pe care le primește de la utilizatori. Dacă introducerea este incorectă sau înșelătoare, IA poate genera răspunsuri inexacte sau înșelătoare. În plus, modelele AI pot perpetua prejudecățile și stereotipurile prezente în datele pe care sunt instruiți. Dacă datele folosite pentru a instrui ChatGPT includ limbaj părtinitor sau cu prejudecăți, AI poate genera răspunsuri care perpetuează acele părtiniri.

Spre deosebire de alți asistenți AI precum Siri sau Alexa, ChatGPT nu folosește internetul pentru a găsi răspunsuri. În schimb, generează răspunsuri bazate pe tiparele și asocierile pe care le-a învățat din cantitatea mare de text pe care a fost instruit. Construiește o propoziție cuvânt cu cuvânt, selectând cea mai probabilă, pe baza tehnicilor sale de învățare profundă, în special o arhitectură de rețea neuronală numită transformator, pentru a procesa și a genera limbaj.

ChatGPT este antrenat în prealabil pe o cantitate mare de date text, inclusiv cărți, site-uri web și alt conținut online. Când un utilizator introduce o solicitare sau o întrebare, modelul își folosește înțelegerea limbajului și cunoașterea contextului solicitării pentru a genera un răspuns. Și ajunge în cele din urmă la un răspuns făcând o serie de presupuneri, ceea ce face parte din motivul pentru care vă poate oferi răspunsuri greșite.

Dacă ChatGPT este instruit pe scrierea colectivă a oamenilor din întreaga lume și continuă să facă acest lucru pe măsură ce este folosit de oameni, aceleași părtiniri care există în lumea reală pot apărea și în model. În același timp, acest chatbot nou și avansat este excelent în explicarea conceptelor complexe, făcându-l un instrument foarte util și puternic pentru învățare, dar este important să nu crezi tot ce spune. ChatGPT cu siguranță nu este întotdeauna corect, ei bine, cel puțin, nu încă.

Rețineți că aceste pericole nu sunt unice pentru ChatGPT și se aplică și altor modele AI. Pentru a atenua aceste riscuri, este esențial ca ChatGPT să fie utilizat în mod responsabil și să primească informații precise și adecvate. De asemenea, ar trebui să înțelegem limitele acestuia.

În ciuda acestor riscuri, tehnologia AI precum ChatGPT deține un potențial imens pentru a revoluționa diverse industrii, inclusiv blockchain-ul. Utilizarea AI în tehnologia blockchain a câștigat amploare, în special în domenii precum detectarea fraudelor, managementul lanțului de aprovizionare și contractele inteligente. Noi roboți bazați pe inteligență artificială, cum ar fi ChainGPT, poate ajuta noile companii blockchain să accelereze procesul lor de dezvoltare.

Cu toate acestea, este esențial să se găsească un echilibru între inovație și siguranță. Dezvoltatorii, utilizatorii și autoritățile de reglementare trebuie să lucreze împreună pentru a crea linii directoare care să asigure dezvoltarea și implementarea responsabilă a tehnologiei AI.

În știrile recente, Italia a devenit prima țară occidentală care a blocat chatbot-ul avansat ChatGPT. Autoritatea italiană de protecție a datelor și-a exprimat îngrijorările legate de confidențialitate legate de model. Autoritatea de reglementare a spus că va interzice și va investiga OpenAI „cu efect imediat”.

Microsoft a cheltuit miliarde de dolari pe el și a adăugat instrumentul de chat AI la Bing luna trecută. De asemenea, a spus că intenționează să încorporeze o versiune a tehnologiei în aplicațiile sale Office, inclusiv Word, Excel, PowerPoint și Outlook.

În același timp, peste 1,000 de experți, cercetători și susținători în inteligență artificială s-au alăturat unui apel pentru o pauză imediată a creării de inteligență artificială timp de cel puțin șase luni, astfel încât capacitățile și pericolele sisteme precum GPT-4 poate fi studiat corect.

Cererea este făcută într-o scrisoare deschisă semnată de principalii jucători AI, inclusiv: Elon Musk, care a co-fondat OpenAI, laboratorul de cercetare responsabil pentru ChatGPT și GPT-4; Emad Mostaque, care a fondat Stability AI cu sediul la Londra; și Steve Wozniak, co-fondatorul Apple.

Scrisoarea deschisă și-a exprimat îngrijorarea cu privire la posibilitatea de a controla ceea ce nu poate fi înțeles pe deplin:

„Ultimele luni au văzut laboratoarele de inteligență artificială blocate într-o cursă scăpată de control pentru a dezvolta și a implementa minți digitale din ce în ce mai puternice pe care nimeni – nici măcar creatorii lor – nu le poate înțelege, prezice sau controla în mod fiabil. Sistemele puternice de inteligență artificială ar trebui dezvoltate doar după ce suntem încrezători că efectele lor vor fi pozitive și că riscurile vor fi gestionate.”

Apelul pentru o pauză imediată în crearea AI-urilor demonstrează necesitatea de a studia capacitățile și pericolele sistemelor precum ChatGPT și GPT-4. Pe măsură ce tehnologia AI continuă să avanseze și să se integreze în viața noastră de zi cu zi, abordarea preocupărilor legate de siguranță și asigurarea dezvoltării și implementării responsabile a AI este crucială.

Preocupări în creștere cu privire la siguranța ChatGPT Evidențiază nevoia de educație publică și transparență privind riscurile AI sursa https://blockchainconsultants.io/rising-concerns-about-chatgpt-safety-highlight-the-need-for-public-education-and-transparency -riscuri-on-ai/

<!–
->

Timestamp-ul:

Mai mult de la Consultanți Blockchain