ChatGPT OpenAI зазнає критики за невідповідну поведінку

ChatGPT OpenAI зазнає критики за невідповідну поведінку

ChatGPT OpenAI зазнає критики за невідповідну поведінку PlatoBlockchain Data Intelligence. Вертикальний пошук. Ai.

OpenAI нещодавно визнав, що його велика мовна модель ChatGPT 4 стала «лінивою», що може вплинути на розвиток ШІ в майбутньому. Це відкриття сталося після численних скарг користувачів на погіршення продуктивності моделі.

Користувачі ChatGPT помітили, що ChatGPT-4 став ледачим і, як повідомляється, відмовлявся виконувати деякі завдання або повертати певні результати. OpenAI, компанія, що стоїть за популярною мовною моделлю ChatGPT, визнала, що модель стала ледачою, але компанія не впевнена, чому.

Читайте також: Deepfake Audio Michal Šimečka розголошує словацьку виборчу сцену

За словами OpenAI, це може мати наслідки для майбутнього штучного інтелекту (ШІ).

Some X (раніше Twitter) користувачі називають цю подію «гіпотезою зимових канікул». Незважаючи на те, що це не доведено, факт залишається фактом: світ мовних моделей ШІ став дивним, оскільки дослідники ШІ сприймають це серйозно.

ChatGPT-4 стає «лінивим»

Кілька повідомлень користувачів про погіршення продуктивності моделі. Вони висвітлили такі проблеми, як невиконані завдання, ярлики та уникнення відповідальності за виконання завдань ChatGPT за вказівками.

OpenAI визнав відгук у серії твітів і стверджував, що з 11 листопада модель не зазнавала жодних оновлень. Вони продовжили, сказавши, що спостережена лінь не була навмисною, і пояснили це непередбачуваною природою великих мовних моделей.

Деякі облікові записи X відкрито публікували твіти про своє невдоволення. марсіанський запитав якщо великі мовні моделі можуть імітувати сезонну депресію. Крім того, Майк Свупскі запитав якби мовна модель дізналася зі своїх тренувальних даних, що люди зазвичай сповільнюються в грудні та відкладають великі проекти до нового року, і тому останнім часом вона була ледачою.

Крім того, люди відзначили, що оскільки системна підказка для ChatGPT передає боту поточну дату, деякі почали думати, що в цій ідеї є щось більше.

Така дивна пропозиція була розглянута, оскільки дослідження показали, що великі мовні моделі, такі як GPT-4, реагують на заохочення людського стилю. GPT-4 підтримує платну версію ChatGPT і реагує на підбадьорення в людському стилі, наприклад, говорить боту «зробити глибокий вдих» перед виконанням математичної задачі.

Однак люди менш формально експериментували, повідомляючи великій мовній моделі, що це буде отримати чайові за виконання роботи. Крім того, повідомлення боту, що він не має пальців, допоможе подовжити виходи, якщо модель стане ледачою.

Шлях вперед?

Низька продуктивність ChatGPT-4 може свідчити про те, що для створення справжнього штучного інтелекту, здатного думати та вирішувати проблеми, може знадобитися більше часу, ніж очікувалося. Таким чином, виникає невпевненість щодо здатності штучного інтелекту самостійно вирішувати завдання. Кілька сфер, які залежать від ШІ, постраждають від цієї затримки в процесі.

Однак ми можемо сприймати це як шанс навчитися, а не як повну зупинку.

Важливо, що вчені можуть дізнатися більше про те, як працює ШІ, з’ясувавши, чому ChatGPT має проблеми. Це допоможе їм створювати штучний інтелект, який залишатиметься активним і розумним у майбутньому.

Крім того, труднощі ChatGPT є нагадуванням про важкий шлях попереду, хоча найближче майбутнє ШІ може бути не таким дивовижним, як ми думали. Ми можемо наблизитися до справжнього штучного інтелекту з кращими знаннями та турботою, визнаючи ці проблеми та вирішуючи їх.

Часова мітка:

Більше від МетаНовини