Компании, занимающиеся разработкой искусственного интеллекта (ИИ), такие как Google, OpenAI и Anthropic, стремятся убедить нас в том, что эра Общего Искусственного Интеллекта (ОИИ) уже на подходе. ОИИ — это мир, где инструменты ИИ могут превосходить человеческий интеллект, выполнять сложные профессиональные задачи без особых усилий и открывать новые горизонты автономного интеллекта. Google вновь нанял основателя Character.AI для ускорения достижения ОИИ, OpenAI недавно выпустила первую модель «умозаключений», а CEO Anthropic Дарио Амодеи утверждает, что ОИИ может быть достигнут уже к 2026 году.
Однако, неприятная правда заключается в следующем: в гонке за ОИИ в высокорисковых областях, таких как медицина, юриспруденция, ветеринария и финансовое планирование, ИИ не только еще не достиг нужного уровня, но возможно, никогда не достигнет его.
Основные недостатки ИИ
В этом году исследователи из Университета Пердью представили работу, показывающую, что ChatGPT ошибался в 52% случаев при ответах на вопросы по программированию. В других не менее важных категориях ситуация не многим лучше. Когда на кону стоят здоровье, благополучие и благосостояние людей, такие высокие показатели неудач недопустимы. Этот вопрос точности будет чрезвычайно трудно решить.
Недавнее исследование из Джорджтауна предполагает, что улучшение качества ИИ на 10% может обойтись в астрономическую сумму в $1 трлн. Тем не менее, ИИ все равно останется далеко от уровня надежности, необходимого в жизненно важных ситуациях. «Последняя миля» обеспечения точности, когда ИИ становится неопровержимо безопасным по сравнению с человеческим экспертом, окажется гораздо сложнее, дороже и более трудоемкой, чем общественности представляют.
Неточности ИИ имеют не только теоретические или академические последствия. Недавно 14-летний мальчик обратился за советом к AI-чатботу, который вместо помощи посоветовал ему покончить с жизнью. Он послушался, и его семья теперь подает в суд, поскольку этот ответ от ИИ был катастрофическим.
Современные модели ИИ и человеческий фактор
Современные ИИ-модели, как и знаменитый «механический турок» XVIII века, прячут за собой человеческий фактор. Несмотря на всю шумиху вокруг ИИ, его развитее по-прежнему в значительной степени зависит от человеческого участия.
Защита от ответственности
Почему главные платформы ИИ не признают проблемы с точностью? Потому что признание фундаментальных проблем с ИИ может повлечь за собой серьезную юридическую ответственность. Признание таких недостатков предоставит доказательства в судебных разбирательствах, как в случае с мальчиком.
Плато в развитии и использовании ИИ
Говоря о мировых приоритетах, люди быстро поняли, что голосовые ассистенты, такие как Alexa, не способны надежно отвечать на их вопросы, поэтому пользуются ими только для самых простых задач. Вероятно, в будущем и платформы ИИ столкнутся с аналогичным барьером в основе применения.
Необходимый поворот: интеграция человеческого суждения
Использование несовершенного ИИ для критически важных задач неприемлемо без достижения ОИИ или интеграции надежного человеческого суждения. Учитывая огромные финансовые и экологические затраты, впереди ясно одно: ставить человечество во главу угла. Нам нужно прекратить создавать иллюзии скорого появления ОИИ и сосредоточиться на использованием ИИ для поддержки и усиления человеческих способностей.
Источник: TechRadar