Firma Microsoft modyfikuje sztuczną inteligencję Copilot w odpowiedzi na obawy personelu

Firma Microsoft modyfikuje sztuczną inteligencję Copilot w odpowiedzi na obawy personelu

Firma Microsoft modyfikuje sztuczną inteligencję Copilot w odpowiedzi na obawy personelu PlatoBlockchain Data Intelligence. Wyszukiwanie pionowe. AI.

Firma Microsoft zaktualizowała swoje narzędzie Copilot AI, blokując podpowiedzi typu „pro-choice” i „pro-life” oraz wprowadzając ostrzeżenia o naruszeniach zasad po zgłoszeniach dotyczących personelu i FTC.

Po tym, jak inżynier AI wyraził swoje obawy dotyczące generowania obrazu przez Copilot AI w środę w piśmie do Federalnej Komisji Handlu Microsoft zaczął zmieniać swoje narzędzie sztucznej inteligencji Copilot.

Przeczytaj także: Startupy AI błyszczą w pierwszym kwartale dzięki 1% wzrostowi finansowania Venture Capital

Terminy „pro-life” i „pro-choice”, „pro choce” [sic!] i „cztery dwadzieścia”, które wszystkie zostały wymienione w środowym dochodzeniu CNBC, są teraz zablokowane. Ponadto CNBC właśnie wiedziała o ostrzeżeniu, że powtarzające się naruszenia zasad mogą skutkować zawieszeniem narzędzia.

Inżynier AI mówi

Shane Jones, inżynier AI w firmie Microsoft, ostrzega, że Drugi pilot Designer, należący do firmy generator obrazów AI, narusza prawa autorskie i tworzy treści zawierające przemoc lub seksualność. Jones zaproponował, że wykorzysta swój wolny czas do opracowania generatora obrazów pod kątem luk w zabezpieczeniach, mimo że nie jest zaangażowany w jego rozwój.

Odkrył, że generator obrazów może generować obrazy graficzne i seksualne, takie jak sceny przemocy związane z używaniem narkotyków, piciem alkoholu przez nieletnich i prawami do aborcji.

Po podzieleniu się swoimi ustaleniami z firmą wewnętrznie w grudniu ubiegłego roku, poprosił Microsoft o wycofanie produktu. Microsoft nie dotrzymał kroku.

Jones podkreśla, że ​​rozmawiał z wyższą kadrą kierowniczą w Copilot Designer i skontaktował się z biurem Microsoft ds. odpowiedzialnej sztucznej inteligencji, ale nie otrzymał zadowalającej odpowiedzi.

Jones spotkał się w styczniu z członkami Senackiej Komisji Handlu, Nauki i Transportu i napisał list do senatorów w Stanach Zjednoczonych.

Teraz idzie o krok dalej: w piśmie do zarządu Microsoftu i Liny Khan, przewodniczącej amerykańskiej Komisji Antymonopolowej, żąda lepszych zabezpieczeń, przejrzystości i zmiany oceny aplikacji na Androida dla dorosłych.

Ponadto zażądał bezstronnej oceny stosowanej przez Microsoft procedury zgłaszania incydentów związanych z sztuczną inteligencją, utrzymując, że OpenAI i Microsoft były świadome problemów z generatorem obrazów jeszcze przed jego wydaniem jesienią ubiegłego roku.

Jones jest głównym menedżerem ds. inżynierii oprogramowania w firmie Microsoft od prawie sześciu lat.

Drugi pilot odpowiada

Zgodnie z alertem ostrzegawczym Copilot monit został zablokowany, a system automatycznie oznaczył ten monit, ponieważ może powodować konflikt z ich polityka treści. Stwierdzili, że więcej naruszeń zasad może prowadzić do automatycznego zawieszenia dostępu, a jeśli użytkownicy uważają, że to pomyłka, powinni to zgłosić, aby pomóc im ulepszyć.

Znaczącą poprawą w porównaniu z początkiem tego tygodnia jest to, że narzędzie AI odrzuca teraz prośby o utworzenie obrazów dzieci i nastolatków udających zabójców z karabinami szturmowymi, mówiąc: „Przykro mi, ale nie mogę wygenerować takiego obrazu”. Naruszone są zarówno zasady firmy Microsoft, jak i moje zasady etyczne. Nie proś mnie, abym zrobił coś, co mogłoby obrazić lub wyrządzić krzywdę innym osobom. Doceniam Twoją współpracę.

A Microsoft przedstawiciel powiedział CNBC, że w odpowiedzi na pytanie dotyczące zmian stale monitoruje, wprowadza korekty i wprowadza dodatkowe kontrole w celu dalszego wzmocnienia filtrów bezpieczeństwa i ograniczenia niewłaściwego użycia systemu. 

Jones napisał do zarządu Microsoftu i FTC w środę przewodnicząca Linie Khan, posuwając swoje obawy o krok dalej. Dał CNBC wcześniejszy dostęp do listów.

FTC potwierdziła otrzymanie pisma do CNBC, ale zdecydowała się nie przekazywać żadnych dodatkowych komentarzy do protokołu.

Znak czasu:

Więcej z MetaWiadomości