Большие языковые модели, обученные на мириадах слов и изображений, иногда кажутся разумными существами, способными затмить человеческий разум. Однако специалисты понимают, что термин ИИ не соответствует действительности. Языковые модели вроде ChatGPT лишь используют наборы данных, созданных людьми. Насколько продуктивно они могут это делать, решили узнать исследователи из Университета Калифорнии в Беркли во главе с психологом Алисон Гопник (Alison Gopnik). Ученые изучили, как способность систем ИИ к имитации и инновации отличается от таковой у детей и взрослых.
В эксперименте психологи дали 30 взрослым и 42 детям в возрасте 3–7 лет текстовые описания обыденных предметов. В первой части эксперимента 84% взрослых и 88% детей смогли правильно определить, какие предметы сочетаются друг с другом, например линейка сочеталась с циркулем, а не чайником. В следующем задании 95% взрослых и 85% детей смогли обнаружить новые способы использования повседневных предметов для решения задач. К примеру, нарисовать круг без циркуля. При выборе между похожим предметом (линейкой), отличающимся предметом (круглым чайником) и нерелевантным предметом (плитой) люди выбрали чайник, который можно обвести и нарисовать круг.
Ученые дали те же задания пяти разным большим языковым моделям. Их результат в первом эксперименте был похож на человеческий — от 59 до 83% для разных моделей. Однако решения задачи инновации были гораздо менее точными. Корректные ответы разные модели выбирали с вероятностью в диапазоне 8–75%. Исследователи также изучили, как дети знакомятся с применениями нового предмета. Когда ученые ввели в языковые модели описания последовательности действий детей, машины не смогли научиться подобно им применять ранее незнакомые предметы. Скорее всего потому, с издевкой пишут психологи, что «ответы не были указаны в их обучающих данных».
Общество до сих пор обсуждает нейросети в контексте их разумности. Авторы исследования предлагают альтернативную точку зрения. Они пришли к выводу, что ИИ есть новая культурная технология. Она способна обобщать существующие знания, подобно, например, письменности. ИИ лишен способности к инновациям, ключевого человеческого свойства. Лучше рассматривать ИИ как новую форму библиотеки или поисковой системы. Поэтому людям для получения принципиально новых знаний недостаточно полагаться лишь на статистическое предсказание языковых моделей. Исследование опубликовано в журнале Perspectives on Psychological Science.