Google прояснює проблеми з AI Overviews
У нещодавньому блозі Google намагався прояснити незрозумілі випадки, пов’язані з його AI Overviews, які призвели до абсурдних рекомендацій, таких як споживання каміння та нанесення клею на піцу.
Технічний гігант нарешті пролив світло на заплутані обставини навколо своїх AI Overviews. Для тих, хто не знайомий, AI Overviews були запущені в пошуковій системі Google 14 травня, що стало значним оновленням бета-версії Search Generative Experience, перетворюючи її на повноцінну функцію для користувачів у США. Ця функція була покликана надати відповідь, згенеровану ІІ, на вершині практично кожного запиту; проте незабаром після запуску вона почала рекомендувати небезпечні дії. Хоча вона все ще функціонує, AI Overviews, здається, зникли на задній план, оскільки все менше запитів від команди Lifehacker отримують відповіді від автоматизованої системи Google.
У блозі, опублікованому вчора, віце-президент Google з пошуку Ліз Рід уточнила, що хоча функція була ретельно протестована, “нічого не зрівняється з тим, коли мільйони людей взаємодіють із функцією через різні унікальні запити”. Компанія визнала, що AI Overviews мали проблеми з підтримкою позитивної репутації (цікаво, що блог був названий “Про минулий тиждень”), але стверджує, що виявила проблеми і активно працює над їх виправленням.
“AI Overviews працюють зовсім інакше, ніж чат-боти та інші продукти великих мовних моделей (LLM),” сказала Рід. “Вони не просто генерують відповіді на базі навчальних даних, а виконують традиційні функції «пошуку», отримуючи інформацію з «найкращих веб-результатів».” Отже, вона не зв’язує неточності з галюцинаціями, натомість припускаючи, що система невірно інтерпретувала наявний веб-контент.
“Ми стикалися з тим, що AI Overviews демонстрували саркастичний або троллійський контент з онлайн-форумів,” вона уточнила. “Хоча форуми можуть бути відмінними джерелами справжніх, першоджерельних знань, іноді вони поширюють непомічені поради.” Інакше кажучи, оскільки автоматизація не може розрізнити сарказм від справжньої допомоги, вона часом надає перше, коли користувачі шукають останнє.
Більше того, стикаючись з “порожнечами даних” з певних тем — по суті, областей, що не мають суттєвих достовірних матеріалів — Рід зазначила, що Overviews неусвідомлено черпали з сатиричних джерел, а не з авторитетних матеріалів. Щоб пом’якшити ці проблеми, компанія стверджує, що впровадила вдосконалення, заявивши:
* Ми встановили вдосконалені системи виявлення для нісенітничих запитів, які не повинні активувати AI Overview, та обмежили інтеграцію сатиричного та гумористичного контенту.
* Ми вдосконалили наші процеси, щоб обмежити залежність від контенту, згенерованого користувачами, в відповідях, які можуть призвести до введення в оману.
* Тригери для запитів, де AI Overviews не надавали ефективної допомоги, були скориговані.
* Для чутливих тем, як-от поточні події та здоров’я, вже були встановлені надійні заходи безпеки. Наприклад, ми прагнемо уникати демонстрації AI Overviews для актуальних новин, де терміновість і точність є ключовими. У запитах, пов’язаних зі здоров’ям, ми розпочали додаткові зміни тригерів, щоб зміцнити наші якісні заходи безпеки.
Всі ці зміни свідчать про те, що AI Overviews, ймовірно, залишаться частиною структури Google, навіть коли користувачі продовжують вигадувати нові способи усунення ІІ з пошуку. Незважаючи на розмови в соціальних мережах, компанія стверджує, що “відгуки користувачів свідчать про те, що AI Overviews покращують загальне задоволення від результатів пошуку,” підкреслюючи зобов’язання Google “укріплювати [свої] захисти, особливо для крайніх випадків.”
Однак, здається, існує помітний розрив між Google і його користувачами. У своїх дописах Google зажадав від користувачів “незрозумілих нових пошуків, які, здавалося, були створені для виклику помилкових результатів”.
Зокрема, корпорація перевірила обґрунтування запитів, таких як “Скільки каміння мені слід з’їсти?” Це було покликане виявити потенційні порожнечі даних, і хоча Google визнав, що ці запити “виявили певні області, що потребують покращення”, підсвідоме натякає на те, що проблеми переважно виникають через те, що користувачі навмисно їх шукають.
Більше того, Google відмовився від відповідальності за деякі відповіді AI Overview, стверджуючи, що “небезпечні рекомендації щодо питань, таких як залишення собак у машинах, куріння під час вагітності та депресія” були вигадані.
В листі безсумнівно присутній відтінок захисної реакції, навіть коли Google вкладає мільярди в розробників ІІ, які, ймовірно, мають на меті виявити такі помилки до їх публічного викриття. Google стверджує, що AI Overviews лише “неправильно інтерпретують мову” у “обмеженій кількості випадків”, але потрібно проявити співчуття до будь-якої особи, яка щиро прагне покращити свій режим тренувань і могла звернутися до його невірних порад щодо “пристібу”.
