Моделі штучного інтелекту завжди дивують нас не лише тим, що вони можуть робити, але й тим, що вони не можуть, і чому. Цікава нова поведінка є поверхневою та показовою щодо цих систем: вони вибирають випадкові числа, ніби вони люди, тобто погано.
Але по-перше, що це взагалі означає? Хіба люди не можуть вибирати числа випадковим чином? І як ви можете визначити, чи хтось робить це успішно чи ні? Насправді це дуже давнє й добре відоме обмеження, яке існує у нас, людей: ми переосмислюємо й неправильно розуміємо випадковість.
Скажіть людині передбачити 100 підкидання монети та порівняйте це зі 100 фактичними підкиданнями монети — ви майже завжди зможете відрізнити їх, тому що, незважаючи на інтуїцію, справжні підкидання монети виглядають менш випадковими. Часто буде, наприклад, шість або сім «орлів» або «решків» поспіль, чого майже жоден людський провісник не включає в свої 100.
Те ж саме, коли ви просите когось вибрати число від 0 до 100. Люди майже ніколи не вибирають 1 або 100. Числа, кратні 5, зустрічаються рідко, як і числа з повторюваними цифрами, наприклад 66 і 99. Вони не здаються «випадковими» вибір для нас, тому що вони втілюють певну якість: маленькі, великі, характерні. Натомість ми часто вибираємо числа, що закінчуються на 7, зазвичай десь із середини.
У психології є незліченна кількість прикладів такої передбачуваності. Але це не робить його менш дивним, коли штучний інтелект робить те саме.
Так, деякі цікаві інженери з Gramener провели неофіційний, але, тим не менш, захоплюючий експеримент, де вони просто попросили кількох великих чат-ботів LLM вибрати випадкове число від 0 до 100.
Читачу, результати не були випадковими.
Усі три перевірені моделі мали «улюблене» число, яке завжди було б їхньою відповіддю, якщо перевести їх у найбільш детермінований режим, але воно найчастіше з’являлося навіть при вищих «температурах», налаштування, яке часто мають моделі, що збільшує варіабельність їхніх результатів.
GPT-3.5 Turbo від OpenAI дійсно любить 47. Раніше йому подобалося 42 — це число, звичайно, прославилося Дугласом Адамсом у «Путівнику автостопом по галактиці» як відповідь на життя, всесвіт і все інше.
Claude 3 Haiku від Anthropic отримав 42. А Gemini подобається 72.
Що ще цікавіше, усі три моделі продемонстрували людське упередження в інших вибраних ними числах навіть за високої температури.
Усі прагнули уникати низьких і високих цифр; Клод ніколи не піднімався вище 87 або нижче 27, і навіть це були викиди. Двозначних цифр ретельно уникали: не було 33, 55 чи 66, але з’являлося 77 (закінчується на 7). Круглих чисел майже немає — хоча Близнюки одного разу, при найвищій температурі, збожеволіли і вибрали 0.
Чому це має бути? ШІ не люди! Чому їх хвилює те, що «здається» випадковим? Невже вони нарешті опритомніли і ось як це показують?!
Ні. Відповідь, як це зазвичай буває з цими речами, полягає в тому, що ми антропоморфізуємося занадто далеко. Ці моделі не хвилюють, що є випадковим, а що ні. Вони не знають, що таке «випадковість»! Вони відповідають на це питання так само, як і на всі інші: дивлячись на дані своїх тренувань і повторюючи те, що найчастіше пишуть після запитання, яке виглядало як «вибери випадкове число». Чим частіше він з'являється, тим частіше модель його повторює.
Де в своїх навчальних даних вони побачать 100, якщо майже ніхто ніколи не відповідає таким чином? Наскільки знає модель ШІ, 100 не є прийнятною відповіддю на це запитання. Не маючи фактичної здатності міркувати та не розуміючи чисел, він може відповідати лише як стохастичний папуга. (Подібним чином вони, як правило, зазнавали невдач у простих арифметичних операціях, як-от множення кількох чисел; зрештою, наскільки ймовірно, що фраза «112*894*32=3 204 096» з’явиться десь у їхніх навчальних даних? Хоча новіші моделі будуть визнати наявність математичної проблеми та перекинути її до підпрограми.)
Це наочний урок про звички великої мовної моделі (LLM) і людяність, яку вони можуть виявляти. У кожній взаємодії з цими системами слід пам’ятати, що вони були навчені діяти так, як це роблять люди, навіть якщо це не було наміром. Ось чому псевдоантропію так важко уникнути або запобігти.
Штучні інтелектуальні моделі, такі як GPT-3.5 Turbo, Claude 3 Haiku та Gemini, вибирають числа, використовуючи статистичні закономірності, які вони “навчилися” під час тренування на великих текстових даних. Ці моделі не обирають числа свідомо або з особистими уподобаннями, але вони можуть виявляти схильність до певних чисел через патерни, які були присутні в їх тренувальних даних.
Наприклад, якщо певне число з’являється частіше в контекстах, де люди обирають “випадкове” число, модель може “вважати”, що це число є більш вірогідним вибором для подібного запитання. Також, культурні посилання, як-от число 42 з “Автостопом по галактиці”, можуть впливати на вибір моделі, оскільки це число має значення в популярній культурі і, отже, часто зустрічається в текстах.
Також, моделі можуть уникати вибору чисел, які люди зазвичай не вважають “випадковими”, таких як числа з однаковими цифрами (наприклад, 11, 22, 33) або круглі числа (наприклад, 10, 20, 100). Це не свідчить про “улюблені” числа у моделей, а скоріше про те, що вони відображають упередження, які існують у тренувальних даних, створених людьми.
Я написала у заголовку, що ці моделі «думають, що вони люди», але це трохи оманливо. Як ми часто маємо нагоду зазначити, вони взагалі не думають . Але у своїх відповідях вони завжди наслідують людей, навіть не знаючи і не думаючи. Якщо ви запитуєте рецепт салату з нуту, інвестиційну пораду чи випадкове число, процес однаковий. Результати здаються людськими, тому що вони людські, взяті безпосередньо з створеного людьми вмісту та реміксовані — для вашої зручності та, звісно, для результатів великого ШІ.
Це показує, що ШІ може відтворювати певні шаблони поведінки, але це не означає, що вони “вважають себе людьми” або мають свідомість. Це просто відображення того, як ШІ працює з інформацією, на якій він був навчений. Є багато захоплюючих експериментів зі штучним інтелектом (ШІ), які демонструють його можливості та потенціал. Ось декілька прикладів:
-
Експерименти з машинним навчанням: Ці експерименти часто включають навчання моделей ШІ розпізнавати образи, перекладати мови або навіть грати в ігри. Наприклад, Google DeepMind розробила AlphaGo, ШІ, який переміг світового чемпіона з гри Го.
-
Самоврівноважувальні роботи: Ці роботи використовують алгоритми ШІ для підтримання балансу та навігації у складних середовищах, що демонструє можливості ШІ у фізичному світі.
-
Експерименти з комп’ютерним зором: ШІ може бути навчений розпізнавати та класифікувати різні об’єкти на зображеннях, що відкриває шлях для розуміння візуальної інформації.
-
Інтерактивні боти: ШІ може бути використаний для створення інтерактивних ботів, які можуть вести розмову, відповідати на питання та навіть виявляти емоції.
-
Експерименти з автономними транспортними засобами: ШІ використовується для розробки автономних автомобілів, які можуть самостійно водити, ухилятися від перешкод та приймати рішення на дорозі.
Ці експерименти показують, як ШІ може взаємодіяти з навколишнім світом, вчитися з досвіду та виконувати завдання, які раніше вважалися виключно людськими. Вони також відкривають нові можливості для досліджень та застосування ШІ у різних галузях.