a320vsBoeing737

Коли стається трагедія, більшість людей, не вагаючись, біжить до Google за відповідями. Але замість фактів – часто стикаються з плутаниною. Саме так сталося після нещодавньої катастрофи рейсу Air India 171: в інтерфейсі пошуку з’явилася AI-відповідь, у якій стверджувалося, що в аварії був задіяний літак Airbus A330. Проблема в тому, що це неправда – літак, що зазнав катастрофи, був Boeing 787.

Знову маємо приклад того, як генеративний ШІ, хоч і створений для допомоги, іноді лише додає хаосу. І не просто в побутових питаннях, а в чутливих ситуаціях, де мова йде про життя людей.


AI Overviews — зручність, яка може ввести в оману

Google активно просуває свою функцію AI Overviews – короткі підсумки відповідей, які з’являються над результатами пошуку. В ідеалі це має бути швидкий спосіб отримати відповідь без зайвих кліків. Проте на практиці все частіше виникають ситуації, коли ці відповіді помиляються – і серйозно.

Один з користувачів Reddit повідомив, що при пошуку катастроф, пов’язаних з літаками Airbus, AI впевнено видав інформацію про рейс Air India 171, назвавши його Airbus A330, що «впав одразу після злету». Інші користувачі бачили варіанти, де ШІ згадував Boeing, або навіть одночасно обидва бренди. Справжній інформаційний вінегрет.

a320vsBoeing737_1

Як таке сталося?

На жаль, це не просто баг чи поодинока помилка. Проблема глибша – генеративний ШІ не розуміє контексту, як це робить людина. Він підтягує інформацію з релевантних статей, а якщо в них згадується і Boeing, і Airbus – він може легко «змішати» ці дані у хибний підсумок.

Чому ж у контексті катастрофи Boeing згадувався Airbus? Ймовірно, через порівняння в статтях, де Airbus подають як головного конкурента Boeing. Але замість розрізнення фактів, AI тупо робить висновки на основі частоти згадок.


Попередження про помилки є, але хто їх читає?

У Google на кожному AI Overview красується попередження: «AI answers may include mistakes» – мовляв, відповіді ШІ можуть містити помилки. Але давайте чесно: хто з нас звертає увагу на ці дрібні приписки, особливо коли відповідь виглядає впевненою?

У випадках, коли йдеться про життя понад 200 пасажирів і екіпажу, як це сталося з рейсом Air India, такі помилки – не просто прикра дрібниця, а серйозне викривлення реальності.


Чим це загрожує?

Подібна дезінформація може мати наслідки не лише для звичайних користувачів, а й для самих авіавиробників. Airbus навряд чи зрадіє тому, що його бренд помилково пов’язують із катастрофою, до якої він не має жодного стосунку. А Boeing, попри всі свої проблеми останніх років, отримає своєрідне «прикриття» — мовляв, то не ми.

airplanes

Що каже Google?

У заяві для видання Ars Technica компанія підтвердила, що помилкову відповідь вже видалили вручну:

“Як і з усіма функціями пошуку, ми постійно покращуємо результати й використовуємо такі випадки, щоб оновлювати наші системи. Ця відповідь більше не з’являється. Ми дотримуємось високих стандартів якості, і точність AI Overviews співставна з іншими функціями пошуку, як-от Featured Snippets.”

Але й тут з’являється інше питання: якщо система настільки нестабільна, що потребує ручного втручання після кожної кричущої помилки — чи готовий Google насправді впроваджувати її у масове користування?


Наостанок: коли ШІ — не помічник, а плутанина

Немає сумніву, що генеративний ШІ — це майбутнє пошуку. Але приклади на кшталт цієї ситуації змушують замислитись: а чи не надто рано ми довіряємо машині, яка ще не навчилась відрізняти правду від словесної каші?

У дні, коли людству потрібна точна інформація — не фантазії алгоритмів — Google має пам’ятати: швидкість не може бути важливішою за правду.

Від Parampamka

Залишити відповідь

Ваша e-mail адреса не оприлюднюватиметься. Обов’язкові поля позначені *