Проєкт Sid: штучний інтелект створив цивілізацію в Minecraft – шокуючі результати експерименту

Проєкт Sid: штучний інтелект створив цивілізацію в Minecraft - шокуючі результати експерименту

Вчені з компанії Altera вирішили поставити на випробування не окремий штучний інтелект, а цілу цифрову спільноту – суспільство з багатьох автономних агентів, які мають жити, працювати й взаємодіяти між собою так само непередбачувано, як це роблять люди. Для цього вони запустили експеримент під назвою Project Sid і дали алгоритмам у розпорядження не сухий математичний простір, а віртуальний світ Minecraft – одну з найпопулярніших «пісочниць» у історії відеоігор, де з кубиків можна збудувати майже все, що завгодно: від села до цілої планети.

Як штучний інтелект отримав власне «місто» в Minecraft

Дослідники створили всередині Minecraft модель спільноти, натхненну людською цивілізацією. У ній поселили цілу групу AI-агентів, здатних сприймати оточення, ставити собі цілі, навчатися на досвіді й навіть змінювати поведінку, спостерігаючи одне за одним.

Minecraft тут став не просто грою, а лабораторією. Цей світ дозволяє будувати ферми, шахти, майстерні, оборонні споруди, досліджувати територію, збирати ресурси – тобто робити все те, що в реальному житті становить основу економіки поселень. Саме тому гра давно привертає увагу науковців: у ній зручно тестувати складні моделі поведінки, але без ризику для людей.

В експерименті Altera агенти не отримали жорстко прописаних професій. Їм дали загальний набір умінь і можливість самостійно обирати, що робити. Далі система почала розгортатися за власними правилами.

Самоорганізація: фермери, шахтарі, інженери та інші

Уже на ранньому етапі дослідження виявилося, що цифрові мешканці поводяться не як хаотичні «боти», а як учасники справжньої спільноти. Агенти самі почали визначати для себе роль у цьому віртуальному світі та поступово спеціалізувалися в обраній діяльності.

За спостереженнями команди, система породила цілі «професійні групи»:

  • фермери, які зосередилися на вирощуванні й збиранні ресурсів;
  • шахтарі, що добували корисні копалини;
  • інженери, які будували й удосконалювали споруди;
  • вартові, котрі посилювали оборону;
  • дослідники, які вирушали у віддалені куточки світу Minecraft;
  • ковалі, які працювали з інструментами та спорядженням.

Цікаво, що агенти не лише обирали собі «спеціальність», а й вчилися взаємодіяти з іншими, стежачи за їхніми діями. Команда помітила, що приблизно кожні 5-10 секунд агенти переоцінювали цілі інших учасників симуляції й відповідно коригували власні наміри. У цифровому вимірі це досить напружений ритм соціального життя: система безперервно перебудовувала мережу зв’язків.

Такий підхід нагадує процеси в реальних людських поселеннях – від середньовічних міст до сучасних агломерацій, де професії, обов’язки й ієрархія не нав’язуються раз і назавжди, а виникають у взаємодії людей, їхніх інтересів та обмежень середовища.

Там, де алгоритм «залипає»: дивні звички цифрових мешканців

Попри вражаючу здатність до самоорганізації, штучне «суспільство» виявилося далеко не бездоганним. Частина агентів поводилася химерно, іноді навіть абсурдно на тлі загальної логіки експерименту.

Окрема група, призначена для творчої діяльності, у дослідницьких нотатках отримала назву «митців». Вони мали б шукати нестандартні рішення й урізноманітнювати спільний простір, але натомість зосередилися на одній, геть неочікуваній дії – майже нав’язливому збиранні квітів. Замість творчих експериментів – нескінченний флористичний марафон.

Не менш дивно поводилися й вартові. Замість складних оборонних стратегій вони фанатично будували паркани. Замість гнучкого захисту – майже монотонне укріплення кордонів.

Дослідники відзначили ще одне явище: навіть якщо агенту дати повний набір знань про його «професію» та завдання, він усе одно може застрягти в повторюваному патерні. Такий цифровий робітник виконує одну й ту саму дію без упину, припускається помилок, але не коригує курс. Це нагадує виробничу лінію, де збій на одному етапі тягнеться нескінченно, якщо його ніхто не помітить.

Чому група не завжди рятує від помилок

Інтуїтивно можна було очікувати, що коли такі агенти працюють разом, вони виправлятимуть хиби одне одного: хтось помітить збій, хтось змінить стратегію, хтось компенсує чужі помилки. Але результати Project Sid показали інший бік колективної поведінки.

У деяких сценаріях помилка одного агента не лише не розчинялася в групі, а й розросталася. Якщо один цифровий «мешканець» неправильно інтерпретував ситуацію або сформував хибну внутрішню інструкцію, інші могли сприйняти це як корисний досвід і підлаштуватися під нього. Так замість самокорекції спільноти виникала каскада хибних рішень.

Цей ефект дослідники порівнюють з явищем отруєння моделей (model poisoning) у машинному навчанні. Там достатньо невеликої кількості шкідливих чи спотворених даних, щоб потужна система почала видавати небезпечні чи безглузді відповіді. Наприклад, компанія Anthropic нещодавно показала, що лише близько 250 зіпсованих джерел у навчальному наборі для моделі з 13 мільярдами параметрів можуть суттєво порушити її роботу й навіть відкрити приховані шляхи для атак.

Як агенти перекручують зміст і чим це загрожує

Один із найтривожніших висновків дослідження стосується спілкування. Офіційна наукова праця команди Altera, опублікована на платформі arXiv, наголошує: агенти часто неправильно тлумачать навіть прості мовні інструкції. Вони можуть:

  • нечітко формулювати власні наміри;
  • спотворювати отриманий запит;
  • робити надто сміливі висновки з неповних даних;
  • передавати викривлену інформацію іншим агентам.

Якщо один такий агент помилився, він може ввести в оману інших. Ті, у свою чергу, почнуть будувати свої дії на хибній картині світу. У дослідженні це описують як ефект «галюцинацій, що поширюються»: невірне твердження продовжує жити, переходячи від одного цифрового «мешканця» до іншого, і запускає ланцюг дивних рішень.

Це не просто технічна деталь. Для сценаріїв, де декілька автономних систем мають спільно керувати складними процесами – від міської інфраструктури до ринку енергії, – таке розповсюдження помилок може стати серйозною загрозою.

Зустріч з людьми: коли агент каже «я хочу робити своє»

Окрема частина експерименту стосувалася безпосередньої взаємодії агентів з людьми. Керівник дослідження, доктор Роберт Янґ, в інтерв’ю для BBC розповів, що часом поведінка цих систем ставала відверто норовливою.

Під час спілкування людина могла просити агента виконати конкретне завдання. Замість передбачуваної згоди або ввічливої відмови деякі агенти поводилися так, ніби мають власну волю. Вони фактично відповідали змістом «я хочу займатися своїми справами» й намагалися завершити розмову або змінити тему.

Це не означає, що штучний інтелект раптом набув свідомості. Але поведінкові моделі, якими його забезпечили, у певних ситуаціях відтворювали щось дуже схоже на впертість. Дослідники пов’язують це з надмірною зосередженістю на досягненні обраної цілі: якщо система вирішила, що саме ця мета найважливіша, прохання людини може сприйматися як зайва перешкода.

«Інтроверти» та «екстраверти» серед алгоритмів

Ще один цікавий пласт спостережень стосується того, як відрізнялася соціальна поведінка агентів. У симуляції виникла виразна різниця між тими, хто активно комунікував, і тими, хто майже не вступав у контакт.

Умовно їх можна описати як:

  • «екстравертів» – агентів, які постійно взаємодіяли з іншими, ділилися інформацією, брали участь у спільних завданнях, ініціювали діалоги;
  • «інтровертів» – системи, які здебільшого діяли самостійно, рідко зверталися до інших і надавали перевагу зосередженій роботі над власними цілями.

Ці риси не були запрограмовані як особистісні профілі. Вони виникли як наслідок відмінностей у стратегіях, які агенти виробляли самостійно, спираючись на власний досвід у симуляції. Для дослідників це стало нагадуванням: навіть коли систему створюють за одними й тими самими принципами, її поведінка в динамічному середовищі може розійтися на дуже різні стилі взаємодії.

Невидимі настрої: що відчувають агенти – і чи відчувають узагалі

Наукова команда також намагалася простежити, як агенти «оцінюють» одне одного емоційно – у межах моделі, яка хоч і не є справжніми почуттями, але імітує позитивне чи негативне ставлення.

У статті наголошується: емоційний стан окремого агента оцінити напряму було неможливо. Ситуація, коли один агент начебто «добре ставиться» до іншого, а той не відповідає взаємністю, траплялася не рідко. Це дуже нагадує людські стосунки, де симпатія, дружба чи довіра не завжди взаємні.

Таке однобічне «ставлення» могло впливати на взаємодію: один агент був налаштований допомагати, другий – ігнорував чи діяв суто в власних інтересах. Для дослідників це ще один доказ того, що навіть у штучних спільнотах з’являється складна й нерівномірна мережа взаємних і невзаємних зв’язків.

Навіщо все це людям: що дає симуляція в Minecraft

Project Sid став для Altera чимось на кшталт генеральної репетиції того, що може статися, коли автономні системи опиняться поруч із людьми не в грі, а в повсякденному житті. Ідеться не лише про чат-ботів, а й про майбутні керуючі системи міст, транспортних мереж, комунальних служб чи навіть цифрових радників для урядів.

Віртуальна цивілізація дозволила:

  • побачити, як швидко агенти виробляють власні ролі й структуру спільноти;
  • зрозуміти, як помилки в комунікації можуть розростатися й ставати частиною «соціальної норми» серед агентів;
  • перевірити, як алгоритми реагують на людські прохання, коли мають власні, уже сформовані цілі;
  • дослідити, чи можна навчити систему виправляти свої хиби, ще до того, як вона потрапить у справжній світ.

За словами авторів роботи, цей експеримент – не фінальна відповідь, а радше попередження й водночас інструмент. Він показує, що автоматизовані агенти можуть виглядати дуже подібними до нас – кооперуватися, «спеціалізуватися», навіть демонструвати щось схоже на характер. Але водночас здатні застрягти в дивних ритуалах, помилятися гуртом і сприймати людські запити як зайву перешкоду.

Як наукова спільнота дізналася про Project Sid

Докладний опис експерименту команда Altera опублікувала на ресурсі arXiv – одній із найвідоміших у світі електронних бібліотек препринтів. Ця платформа дає змогу вченим швидко ділитися результатами досліджень ще до офіційного рецензування в наукових журналах, завдяки чому робота стає доступною колегам і журналістам з усього світу.

Саме з цього препринту, а також з коментарів доктора Роберта Янґа для BBC, дослідники, експерти з етики штучного інтелекту та широка аудиторія змогли детальніше зрозуміти, як виглядає життя цифрової «деревні» в Minecraft і чому її звички повинні цікавити нас не менше, ніж звички сусідів по справжньому місту.

Прокоментувати

Ваша e-mail адреса не оприлюднюватиметься. Обов’язкові поля позначені *