Microsoft намагається виправдати схильність штучного інтелекту давати неправильні відповіді, кажучи, що вони «корисно неправильні»

Завдяки останнім досягненням у галузі штучного інтелекту нові інструменти, такі як ChatGPT, вражають споживачів своєю здатністю створювати переконливі тексти на основі запитів і підказок людей.

Хоча ці інструменти на основі штучного інтелекту стали набагато кращими у створенні креативних, а іноді й гумористичних відповідей, вони часто містять неточну інформацію.

Наприклад, у лютому, коли Microsoft дебютувала свій чат Bing, побудований з використанням технології GPT-4, створеної OpenAI, що підтримується Microsoft, люди помітили, що під час демонстрації, пов’язаної зі звітами про фінансові прибутки, інструмент давав неправильні відповіді. Як і інші мовні інструменти штучного інтелекту, включно з аналогічним програмним забезпеченням від Google
функція чату Bing може час від часу представляти фейкові факти, які користувачі можуть сприймати як істину в останній інстанції – явище, яке дослідники називають “галюцинацією штучного інтелекту”.

Ці проблеми з фактами не сповільнили гонку ШІ між двома технологічними гігантами.

У вівторок Google оголосила, що впроваджує технологію чату на основі ШІ в Gmail і Google Docs, що дозволяє їй допомагати створювати електронні листи та документи. У четвер Microsoft заявила, що її популярні бізнес-додатки, такі як Word і Excel, не будуть поставлятися в комплекті з технологією, схожою на ChatGPT, під назвою Copilot.

Під час онлайн-презентації нових функцій Copilot керівники Microsoft згадали про успішність програм, які дають неточні відповіді, але подають це як щось, що може бути корисним. Деякі люди усвідомлюють, що відповіді Copilot можуть бути небезпечними щодо фактів, вони можуть редагувати неточності та швидше надсилати свої електронні листи або завершувати слайди презентації.

Наприклад, якщо людина хоче привітати члена сім’ї з днем ​​народження, Copilot все одно може допомогти, навіть якщо вона вкаже неправильну дату народження. На думку Microsoft, сам факт того, що інструмент згенерував текст, а отже, є корисним. Людям просто потрібно бути більш важливими і переконатися, що текст не містить помилок.

Деякі технологи, як Гері Маркус, висловили занепокоєння, що люди можуть надто довіряти сучасному штучному інтелекту, приймаючи до серця такі інструменти, як ChatGPT, коли вони ставлять запитання про здоров’я, фінанси та інші важливі теми.

«Опори токсичності ChatGPT легко обійти тими, хто хоче використовувати його на зло, і, як ми побачили на початку цього тижня, усі нові пошукові системи продовжують галюцинувати», — написали вони в нещодавній статті Time. «Але коли ми подолаємо хвилювання в день відкриття, справді матиме значення, чи зможе хтось із великих гравців створити штучний інтелект, якому ми зможемо щиро довіряти».

Total
0
Shares
Previous Article

Колекція Sci-Fi арт-малюнків (і не тільки), які зачарують вас

Next Article

Гарні фотографії на Гіктаврі (добірка №01)