Google uniemożliwia chatbotowi AI Gemini omawianie przemówień wyborczych

Google uniemożliwia chatbotowi AI Gemini omawianie przemówień wyborczych

Tylera Crossa


Tylera Crossa

Opublikowany: 13 marca 2024 r.

Model AI Gemini stworzony przez Google został zakazany w wystąpieniach wyborczych w cyklu wyborczym w 2024 r. W ciągu ostatniego roku wiele firm technologicznych, w tym Google, dokonało ogromnych przełomów w technologii sztucznej inteligencji. Jednak modele sztucznej inteligencji stały się na tyle potężne, że mogą powodować oszustwa wyborcze na dużą skalę i podsycać kampanie propagandy politycznej, jeśli wpadną w niepowołane ręce.

W miarę jak sztuczna inteligencja staje się coraz szerzej dostępna, wyborcy w USA mają zrozumiałą obawę, że firmy takie jak Google mogą wykorzystać swoje modele sztucznej inteligencji do zmiany przebiegu wyborów poprzez rozpowszechnianie dezinformacji. Wielu użytkowników już zgłasza, że ​​modele takie jak Gemini i ChatGPT mają w swoich pismach wyraźne uprzedzenia polityczne.

Alphabet (spółka macierzysta Google) wychodzi naprzeciw obawom ludzi, wzmacniając zasady swojej firmy. Całkowicie zakazali wystąpień wyborczych w cyklu wyborczym w 2024 roku.

Jeśli zadasz pytania związane z wyborami Gemini na temat Donalda Trumpa, Joe Bidena lub innych kandydatów, chatbot po prostu odpowie: „Wciąż uczę się odpowiadać na to pytanie. W międzyczasie wypróbuj wyszukiwarkę Google”.

Po raz pierwszy o ograniczeniach tych poinformowano w grudniu. Google wyjaśnił, że chce wdrożyć te zabezpieczenia wcześniej, aby aktorzy (a nawet sama firma) nie mieli szansy na wykorzystanie ich do szerzenia dezinformacji.

„Przygotowując się do licznych wyborów, które odbędą się na całym świecie w 2024 r., oraz ze względu na dużą ostrożność w tak ważnym temacie, wkrótce ograniczymy typy zapytań związanych z wyborami, na które Gemini będzie zwracać odpowiedzi” – oznajmia rzecznik Google.

Zaostrzenie wypowiedzi wyborczych w Gemini stanowi wyraźny kontrast z ostatnimi decyzjami OpenAI. Firma stojąca za ChatGPT zyskała złą prasę po wycofaniu się z dwóch ważnych klauzul bezpieczeństwa. Warunki korzystania z usługi ChatGPT początkowo nie pozwalały na wykorzystanie go w żadnych kampaniach politycznych ani w wojsku.

Z biegiem czasu ChatGPT zmienił swoje warunki świadczenia usług, zabraniając jedynie „ryzykownego” wykorzystania ChatGPT w kampaniach politycznych i zezwalając wojsku na używanie go do celów innych niż budowanie broni.

Znak czasu:

Więcej z Detektywi bezpieczeństwa