Надзвичайно неправильна інформація від нового штучного інтелекту Google показує що на його поради не можна покладатися. У результатах пошуку штучний інтелект Google нещодавно запропонував кухарю додавати клей в інгредієнти піци, щоб сир не зісковзував.
Раніше говорилося, що вживання великої кількості сечі може допомогти вам вивести камінь у нирках. (Не робіть цього. І Google сказав, що це виправив.)
ШІ Google сказав, що Джон Ф. Кеннеді закінчив Університет Вісконсіна в Медісоні в шість різних років, включаючи 1993 рік . Там сказано, що жодна африканська країна не починається на літеру «К». (Ні. Кенія.)
Це здебільшого безглузді приклади, які в деяких випадках надходили від людей, які намагалися вмовити ШІ Google говорити неправильні речі.
Але є серйозний урок: ви повинні мати відносно низькі очікування щодо ШІ. З генеративним штучним інтелектом від Google, ChatGPT від OpenAI і Copilot від Microsoft, ви повинні вважати, що вони неправі, доки не буде доведено протилежне.
Ці чат-боти все ще можуть бути неймовірно корисними. Але припущення, що вони помиляються, є іншою ментальною моделлю, ніж більшість технологій, які ви використовуєте регулярно. Коли ви вводите маршрути в Waze, надсилаєте електронний лист або натискаєте посилання в Google, у вас є обґрунтовані очікування, що технології працюють належним чином і точно.
«Переважна більшість оглядів штучного інтелекту надають високоякісну інформацію з посиланнями для глибшого вивчення Інтернету», — йдеться в заяві Google. Компанія заявила, що провела масштабне тестування перед запуском результатів пошуку ШІ, і що компанія використовує приклади помилок, щоб «розробити ширші вдосконалення наших систем, деякі з яких уже почали розгортатися».
Я поясню, чому штучний інтелект Google (та інші чат-боти) можуть наказувати вам їсти клей, і поясню, які уроки ви повинні взяти з таких помилок.
Як ШІ може так помилятися
Технологія, що лежить в основі ChatGPT і «Огляди штучного інтелекту» в пошуках Google, які минулого тижня стали доступними для всіх американців , називається великою мовною моделлю.
Технологія отримує купу інформації з Інтернету — це можуть бути статті новин, Вікіпедія, онлайн-рецепти, практичні тести для вступу до юридичних шкіл, форуми Reddit тощо. На основі шаблонів з даних Інтернету комп’ютери генерують математично ймовірні слова для ваших запитів.
Комп’ютерний програміст Саймон Віллісон сказав, що штучний інтелект Google працює, обробляючи терміни, які ви вводите у вікно пошуку, і вставляючи пошук і результати у велику мовну модель. Потім він витягує корисну інформацію з відповідних веб-сайтів у результати пошуку Google.
Іноді ШІ Google виділяє правильну та корисну інформацію. Іноді, особливо якщо в Інтернеті немає багато інформації, пов’язаної з вашим пошуком, він видає щось не те.
Приклад клею для піци, сказав Віллісон, здається, походить із відносно рідкісної інформації в Інтернеті, пов’язаної з, ймовірно, незвичайним пошуком у Google щодо приготування сиру до піци. Виявилося, що пошуковий штучний інтелект Google черпає свою відповідь з одного, здавалося б, жартівливого допису 11-річної давності з Reddit.
ШІ не може відрізнити жарт від правди. Або якщо штучний інтелект не має достатньо інформації, щоб дати вам точну відповідь, він може вигадати впевнену вигадку, зокрема про те, що собаки професійно грали в баскетбол і хокей.
«Важко створити таку версію, яка б не мала всіляких дивних помилок», — сказав Віллісон.
Більшість прикладів, які літають у соціальних мережах, були смішними помилками Google AI. Однак ми підтвердили, що штучний інтелект Google випустив звичну дезінформацію про те, що колишній президент Барак Обама є мусульманином. Це брехня.
Google заявив, що видалив згенеровану ШІ неправдиву інформацію.
Компанії не розкривають багато інформації про те, яку інформацію «вчаться» їхні моделі AI або як часто їхні чат-боти помиляються.
OpenAI заявив, що рівень його точності покращився. Microsoft заявила, що її чат-бот Copilot містить посилання у своїх відповідях, як і Google, щоб люди могли досліджувати більше. Microsoft також заявила, що приймає відгуки від людей і вдосконалює Copilot.
«Не довіряй і перевіряй»
Віллісон запропонував змінити рефрен часів Рейгана «довіряй, але перевіряй» для чат-ботів. Помістім це на наклейки на бампер.
Більшість людей не стали б їсти клей лише тому, що це запропонував Google. Але чат-ботами вже важко ефективно користуватися . Ризик полягає в тому, що штучний інтелект, який часто помиляється, змарнує ваш час і підірве вашу довіру до нової технології.
Письменниця технологій Моллі Вайт сказала, що компанії повинні робити більше, щоб знизити ваші очікування.
Вона сказала, що Google, OpenAI і Microsoft повинні бути обережнішими, щоб не показувати вам інформацію, згенеровану штучним інтелектом, для відповідей на важливі запитання, як-от ті, що стосуються вашого здоров’я чи закону.
Представники Google і OpenAI заявили, що компанії обмежують використання інформації, отриманої за допомогою штучного інтелекту, для важливих тем, включаючи питання охорони здоров’я та юридичні питання. У Microsoft заявили, що багато відповідей Copilot, у тому числі щодо медичної та юридичної інформації, можуть спрямовувати людей до результатів веб-пошуку Bing.
Вайт також сказав, що компаніям не слід демонструвати нереалістичні демонстрації спритних чат-ботів, які створюють враження, що ви спілкуєтеся з людиною, яка має нескінченні знання.
«Це не людина на іншому кінці, яка міркує», — сказав Вайт. «Це здогад про те, що може здатися правильним».
Особливо складно визначити свої очікування щодо відповідей штучного інтелекту під час пошуку Google. Зараз Google змішує знайомі результати пошуку з новою інформацією, згенерованою штучним інтелектом, яка, швидше за все, буде менш надійною. ChatGPT цього не робить.
З відповідно низькими очікуваннями я все ще обережно цікавлюся ШІ Google. Цього тижня я шукав у Google найкращого редактора Wired. Інформація, створена Google за допомогою штучного інтелекту, поєднала її біографічні дані, а також цитату її боса, коли її приймали на роботу.
Якби не відповідь Google від ШІ, мені довелося б перерити кілька посилань, щоб знайти інформацію. Google пообіцяв, що його штучний інтелект зробить пошук у Google за вас .
Цього разу обіцянку було виконано. І ШІ Google не казав мені їсти клей.
Джерело: internetua.com