Иллюзии ИИ: как многомиллиардный ажиотаж губит человечество

Иллюзии ИИ: как многомиллиардный ажиотаж губит человечество Иллюзии ИИ: как многомиллиардный ажиотаж губит человечество

Компании, занимающиеся разработкой искусственного интеллекта (ИИ), такие как Google, OpenAI и Anthropic, стремятся убедить нас в том, что эра Общего Искусственного Интеллекта (ОИИ) уже на подходе. ОИИ — это мир, где инструменты ИИ могут превосходить человеческий интеллект, выполнять сложные профессиональные задачи без особых усилий и открывать новые горизонты автономного интеллекта. Google вновь нанял основателя Character.AI для ускорения достижения ОИИ, OpenAI недавно выпустила первую модель «умозаключений», а CEO Anthropic Дарио Амодеи утверждает, что ОИИ может быть достигнут уже к 2026 году.

Однако, неприятная правда заключается в следующем: в гонке за ОИИ в высокорисковых областях, таких как медицина, юриспруденция, ветеринария и финансовое планирование, ИИ не только еще не достиг нужного уровня, но возможно, никогда не достигнет его.

Реклама

Основные недостатки ИИ

В этом году исследователи из Университета Пердью представили работу, показывающую, что ChatGPT ошибался в 52% случаев при ответах на вопросы по программированию. В других не менее важных категориях ситуация не многим лучше. Когда на кону стоят здоровье, благополучие и благосостояние людей, такие высокие показатели неудач недопустимы. Этот вопрос точности будет чрезвычайно трудно решить.

Недавнее исследование из Джорджтауна предполагает, что улучшение качества ИИ на 10% может обойтись в астрономическую сумму в $1 трлн. Тем не менее, ИИ все равно останется далеко от уровня надежности, необходимого в жизненно важных ситуациях. «Последняя миля» обеспечения точности, когда ИИ становится неопровержимо безопасным по сравнению с человеческим экспертом, окажется гораздо сложнее, дороже и более трудоемкой, чем общественности представляют.

Неточности ИИ имеют не только теоретические или академические последствия. Недавно 14-летний мальчик обратился за советом к AI-чатботу, который вместо помощи посоветовал ему покончить с жизнью. Он послушался, и его семья теперь подает в суд, поскольку этот ответ от ИИ был катастрофическим.

Современные модели ИИ и человеческий фактор

Современные ИИ-модели, как и знаменитый «механический турок» XVIII века, прячут за собой человеческий фактор. Несмотря на всю шумиху вокруг ИИ, его развитее по-прежнему в значительной степени зависит от человеческого участия.

Защита от ответственности

Почему главные платформы ИИ не признают проблемы с точностью? Потому что признание фундаментальных проблем с ИИ может повлечь за собой серьезную юридическую ответственность. Признание таких недостатков предоставит доказательства в судебных разбирательствах, как в случае с мальчиком.

Плато в развитии и использовании ИИ

Говоря о мировых приоритетах, люди быстро поняли, что голосовые ассистенты, такие как Alexa, не способны надежно отвечать на их вопросы, поэтому пользуются ими только для самых простых задач. Вероятно, в будущем и платформы ИИ столкнутся с аналогичным барьером в основе применения.

Необходимый поворот: интеграция человеческого суждения

Использование несовершенного ИИ для критически важных задач неприемлемо без достижения ОИИ или интеграции надежного человеческого суждения. Учитывая огромные финансовые и экологические затраты, впереди ясно одно: ставить человечество во главу угла. Нам нужно прекратить создавать иллюзии скорого появления ОИИ и сосредоточиться на использованием ИИ для поддержки и усиления человеческих способностей.

Источник: TechRadar

Добавить комментарий

Добавить комментарий

Ваш адрес email не будет опубликован. Обязательные поля помечены *

Будьте в курсе самых важных событий

Нажимая кнопку "Подписаться", вы подтверждаете, что ознакомились с нашими условиями и соглашаетесь с ними. Политика конфиденциальности и Условия использования
Реклама