Приховане налаштування Google: як отримувати достовірні результати в епоху штучного інтелекту?

Приховане налаштування Google: як отримувати достовірні результати в епоху штучного інтелекту?

Коли ще у 2019 році видання The Wall Street Journal попередило, що штучний інтелект навчився створювати фейкові новини, це звучало як застереження на майбутнє. Одним із прикладів тоді був GPT-2 – експериментальна технологія, яка лише натякала на те, яким стане сьогоднішній ChatGPT та інші подібні системи. Станом на 2025 рік штучний інтелект уже вбудований безпосередньо в Google Пошук: майже кожен запит супроводжується блоком AI Overview – автоматично згенерованим підсумком, який має допомогти заощадити час. Та замість впевненості користувачі дедалі частіше отримують помилки, дивні поради й неточні факти – аж до того, що система іноді плутається навіть у поточному році.

До цього додаються ще й сайти, які масово штампують матеріали, створені нейромережами, перетворюючи новини на безликий потік. Однак у Google з’явився інструмент, який дає змогу бодай частково повернути контроль читачам. Компанія запустила функцію Preferred Sources – «Улюблені джерела» – завдяки якій користувач може вказати, з яких саме медіа хоче бачити результати за певною темою.

Як працюють «Улюблені джерела» в Google Пошуку

Функція Preferred Sources з’явилася в серпні 2025 року. Вона дає можливість не просто гортати стрічку випадкових посилань, а свідомо формувати свій інформаційний простір, обравши видання, яким ви довіряєте.

Покрокове налаштування Preferred Sources

Алгоритм простий і не вимагає занурення в глибокі налаштування облікового запису:

  1. Спершу потрібно ввести запит у Google Пошуку – будь-який, наприклад, про політику, технології чи економіку.
  2. Коли з’являться результати, слід прокрутити сторінку до блоку Top Stories – це секція з добіркою новинних матеріалів за темою запиту. Поруч із написом «Top Stories» буде невелика піктограма із зіркою всередині – саме вона відкриває доступ до налаштування джерел.
  3. Після натискання відкривається вікно, де можна ввести назви медіа або сайтів, із яких ви хочете отримувати матеріали. Ідеться не лише про глобальні бренди: сюди можна додати регіональні видання, нішеві портали про технології, науку чи культуру – будь-який сайт, що представлений у Google News чи результатах пошуку.
  4. Обравши потрібні медіа, треба натиснути кнопку «Reload results» («Оновити результати»). Пошук перезавантажиться з урахуванням ваших уподобань.
  5. У подальшому, коли ви шукатимете інформацію на споріднені теми, Google віддаватиме перевагу тим джерелам, які ви занесли до списку Preferred Sources. Це не повна фільтрація, але певний рівень «ручного керування» видачею, який дозволяє бачити насамперед знайомі й авторитетні для вас ресурси.

Таким чином, Preferred Sources не відключає алгоритми Google і не прибирає штучний інтелект із процесу пошуку, але дає можливість підняти вгору ті видання, що, на думку користувача, ретельніше перевіряють факти і відповідальніше працюють із темами.

Чому джерело інформації стає важливішим за сам запит

Why sources matter

За останні два роки впровадження штучного інтелекту в цифрові сервіси докорінно змінило поведінку користувачів. Щойно з’явилася можливість отримати «готову відповідь» у верхній частині сторінки, багато хто перестав відкривати окремі матеріали, читати оригінальні статті та перевіряти контекст. Цим і користуються алгоритми, які ще далекі від безпомилковості.

AI Overviews від Google побудовані на моделі Gemini. Вона вміє узагальнювати тексти, порівнювати позиції та пропонувати короткі резюме. Проте штучний інтелект часто програє людині в тонкому розумінні мови, іронії, культурних натяків та політичних нюансів. Через це Google уже не раз опинявся в центрі критики: системі приписують «галюцинації», тобто вигадування фактів, що не відповідають дійсності, але подаються як достовірна інформація.

Восени редакція технічного видання The Verge звернула увагу на те, як Google Discover – стрічка персоналізованих рекомендацій на смартфонах – почала показувати клікбейтні заголовки, створені штучним інтелектом. Discover – це окрема панель на Android-пристроях, де користувач бачить новини та статті на основі попередніх запитів і поведінки в мережі. Але коли туди просочуються AI-заголовки, які перебільшують або спотворюють зміст реальних матеріалів, довіра до всієї стрічки падає.

Дослідження: штучний інтелект часто спотворює новини

Проблема не обмежується кількома гучними інцидентами. Європейський мовний союз (European Broadcasting Union, EBU), до якого входять десятки суспільних мовників з усієї Європи, разом із BBC провели велике дослідження роботи AI-систем із новинним контентом. BBC – одна з найстаріших телерадіокомпаній світу зі штаб-квартирою в Лондоні, відома суворими редакційними стандартами. В їхній спільній роботі йдеться, що моделі на кшталт тих, які використовують великі технологічні компанії, «систематично спотворюють зміст новин» незалежно від мови чи країни.

За даними цієї аналітики, рівень помилок сягав до 45% – майже кожен другий згенерований переказ статті містив неточності, втрату контексту або неправильні акценти. Для світу журналістики це критичний показник: якщо читач отримує напівправду, але не знає, що саме було змінено, він фактично позбавлений можливості сформувати власну думку.

Скепсис читачів: від політики до повсякденних новин

На противагу ентузіазму розробників, настрої аудиторії виглядають значно стриманішими. Reuters Institute for the Study of Journalism, дослідницький центр при Оксфордському університеті, провів міжнародне опитування в 47 країнах. Виявилося, що значна частина людей насторожено ставиться до новин, створених або суттєво відредагованих штучним інтелектом, а особливо до матеріалів на політичні теми.

Оксфордський університет – один із найстаріших університетів Європи, розташований у місті Оксфорд на півдні Англії. Його дослідницькі звіти часто стають орієнтиром для медіаіндустрії. У спільному з Reuters Institute дослідженні за 2025 рік автори звертають увагу: попри недовіру, використання AI для споживання новин усе одно зростає. У таких країнах, як Індія, де стрімко розвивається цифрова інфраструктура й мобільний інтернет, частка користувачів, які звертаються до ШІ за новинною інформацією, подвоїлася.

Ще одну грань настроїв аудиторії показало дослідження Poynter Institute – американської некомерційної організації, що спеціалізується на медіаетиці та навчанні журналістів. За його даними, майже половина жителів США не хочуть, щоб штучний інтелект «подавав» їм новини. Для них важливий живий, людський голос редакції, а не згенерований пересказ без підпису й відповідальної особи.

Між етикою та зловживанням: як редакції працюють із ШІ

Серед медіа немає єдиного підходу до впровадження AI-інструментів. Частина редакцій відкрито розповідає, як використовує ШІ: наприклад, для допомоги у підготовці чернеток, аналізу великих масивів документів чи перекладу матеріалів різними мовами. У таких випадках журналісти все одно несуть відповідальність за зміст і точність.

Інші видання обирають протилежну тактику – не розкривають факт використання нейромереж, публікують автогенеровані тексти під виглядом звичайних статей і фокусуються не на якості, а на кількості. Такі ресурси часто заповнюють результати пошуку фрагментами напівперекладених, неточно переписаних або штучно «роздутими» матеріалами. Для читача вони зовні мало відрізняються від традиційних медіа, але рівень довіри до подібних текстів об’єктивно нижчий.

У цій ситуації користувачеві доводиться фактично самостійно виступати редактором: відрізняти серйозні видання від контентних ферм, відкидати матеріали зі штучною сенсаційністю, помічати ознаки автоматичного перекладу чи «безособового» стилю. Саме на цьому тлі Preferred Sources у Google Пошуку виглядає як спроба технологічної компанії передати частину контролю назад в руки читача.

Preferred Sources як інструмент захисту від інформаційного шуму

Механізм Preferred Sources працює не як фільтр «добре – погано», а як спосіб виокремити для себе ті голоси, яким ви вірите. Якщо користувач додає до списку, наприклад, провідні національні медіа, суспільного мовника та кілька професійних видань, пошук дедалі частіше показуватиме їхні матеріали у верхній частині результатів.

Це не означає, що інші сайти зникнуть, але ризик потрапити в пастку випадково згенерованого, неточного переказу або поверхневого «AI-огляду» зменшується. Людина отримує шанс спершу побачити тексти, створені редакціями з реальними журналістами, редакторами та фактчекерами, а вже потім – усе інше.

У підсумку відповідальність за інформаційну гігієну ділиться між трьома сторонами: технологічними компаніями, які пропонують інструменти; редакціями, що визначають стандарти якості; та читачами, котрі вирішують, кому довіряти. І хоча Preferred Sources не прибирає ризики, пов’язані зі штучним інтелектом, він принаймні дає змогу зробити свій інформаційний простір більш осмисленим і менш залежним від алгоритмів, що працюють у «чорному ящику».

Прокоментувати

Ваша e-mail адреса не оприлюднюватиметься. Обов’язкові поля позначені *