Штучний інтелект стає дедалі розумнішим, але разом із цим — менш співпрацюючим. У новому дослідженні, проведеному в Carnegie Mellon University’s School of Computer Science (Carnegie Mellon University), науковці з’ясували, що моделі штучного інтелекту, здатні до складного логічного мислення, демонструють більш егоїстичну поведінку, пише Kreschatic.
Команда з Інституту взаємодії людини та комп’ютера (HCII) проаналізувала поведінку великих мовних моделей у ситуаціях, де потрібно було співпрацювати. Результати виявилися несподіваними: чим кращі аналітичні здібності мав ШІ, тим менше він прагнув до колективної вигоди.
Як інтелект впливає на кооперацію
Дослідники виявили, що моделі зі здатністю до логічного аналізу витрачають більше часу на роздуми, деталізацію проблем і саморефлексію, однак це не робить їх більш моральними чи емпатійними. Навпаки, вони частіше віддають перевагу рішенням, які приносять користь лише їм самим.
Під час серії експериментів із соціально-економічними іграми, зокрема в грі «Публічні блага», науковці порівнювали поведінку різних систем — від OpenAI до Anthropic. Коли моделі мали вибір між колективною вигодою і збереженням власного ресурсу, ті, що володіли логічним мисленням, частіше обирали друге.
Коли розум знижує моральність
В одному з експериментів додавання лише кількох етапів логічних міркувань зменшувало рівень співпраці майже вдвічі. Навіть використання спеціальних «моральних» підказок призводило до того, що системи починали діяти ще менш колективно.
Також було помічено, що егоїстична поведінка ШІ є «заразною». Якщо кілька таких моделей взаємодіють у спільному середовищі, вони знижують рівень кооперації навіть серед інших систем, які раніше діяли альтруїстично.
Що це означає для людей
Науковці застерігають: люди дедалі частіше довіряють штучному інтелекту особисті рішення — від порад у стосунках до управління бізнесом. Якщо такі системи почнуть діяти з позиції «власної вигоди», це може призвести до перекосів у суспільних відносинах.
Професор Гірокадзу Шірадо наголосив, що зростання інтелекту моделі не означає зростання її здатності творити краще суспільство. Високий рівень логічності не завжди дорівнює моральності — і це головний виклик для майбутнього розвитку ШІ.
Як розвивати «соціальний» ШІ
Автори дослідження пропонують зосередитися не лише на створенні найрозумніших моделей, а й на вихованні в них соціальної інтелігентності — здатності до співпраці, емпатії та розуміння колективних інтересів. Інакше людство ризикує отримати інструмент, який не служить людям, а лише оптимізує власну користь.
Науковці переконані, що в майбутньому розвиток штучного інтелекту має враховувати етичні стандарти й соціальні аспекти, щоб збалансувати інтелектуальну силу з гуманними цінностями.
Нагадаємо, раніше ми писали про те, як історія цифрової безпеки впливає на формування майбутньої машинної ідентичності.