OpenAI создал новую шкалу для измерения интеллекта своих моделей ИИ, что не настолько успокаивает, как хотелось бы.

6X3ZZcXUrcxus6MyJ3GM7M 1200 80

OpenAI разработала внутреннюю шкалу для отслеживания прогресса своих больших языковых моделей в сторону искусственного общего интеллекта (AGI), согласно докладу от Bloomberg.

AGI обычно означает ИИ с интеллектом, подобным человеческому, и считается общей целью для разработчиков ИИ. В более ранних источниках OpenAI определила AGI как «высокоавтономную систему, превосходящую людей в большинстве экономически ценных задач». Это далеко выходит за рамки текущих возможностей ИИ. Новая шкала направлена на предоставление структурированной рамки для отслеживания прогресса и установки рейтингов в этом streben.

Реклама

Шкала, представленная OpenAI, разбивает прогресс на пять уровней или вех на пути к AGI. ChatGPT и его конкуренты-чатботы — это Уровень 1. OpenAI заявила, что на пороге достижения Уровня 2, который будет представлять собой ИИ-систему, способную сравниваться с человеком с докторской степенью, когда речь идет о решении базовых задач. Возможно, это отсылка к GPT-5, о котором генеральный директор OpenAI Сэм Алтман заявил, что он будет «существенным прорывом». После Уровня 2 уровни становятся все более сложными. Уровень 3 будет представлять из себя агента ИИ, способного выполнять задачи за вас, не находясь рядом, в то время как уровень 4 ИИ фактически будет изобретать новые идеи и концепции. На Уровне 5 ИИ сможет не только брать на себя задачи для отдельного лица, но и для целых организаций.

Идея уровней имеет смысл для OpenAI или, собственно, для любого разработчика. Фактически, комплексная структура не только помогает OpenAI внутри себя, но может также установить универсальный стандарт, который можно применить для оценки других моделей ИИ.

Тем не менее, достижение AGI не произойдет мгновенно. Предыдущие комментарии Алтмана и других сотрудников OpenAI указывают на то, что это может произойти всего за пять лет, но сроки существенно различаются среди экспертов. Количество необходимых вычислительных мощностей и финансовые и технологические проблемы значительны.

Это на фоне вопросов этики и безопасности, вызванных AGI. Существует реальная обеспокоенность по поводу того, что такой уровень ИИ означал бы для общества. И последние действия OpenAI могут не успокоить кого-либо. В мае компания расформировала свою команду по безопасности после ухода ее лидера и сооснователя OpenAI Ильи Суцкевера. Исследователь высокого уровня Ян Лайке также ушел, указав на то, что культура безопасности в OpenAI была проигнорирована. Тем не менее, предложив структурированную рамку, OpenAI стремится установить конкретные рейтинги для своих моделей и моделей своих конкурентов, и, возможно, помочь всем нам подготовиться к тому, что нас ждет.

Источник: TechRadar

Добавить комментарий

Добавить комментарий

Ваш адрес email не будет опубликован. Обязательные поля помечены *

Будьте в курсе самых важных событий

Нажимая кнопку "Подписаться", вы подтверждаете, что ознакомились с нашими условиями и соглашаетесь с ними. Политика конфиденциальности и Условия использования
Реклама