OpenAI создала внутреннюю шкалу для отслеживания прогресса своих крупных языковых моделей в направлении искусственного общего интеллекта, или ИИ с интеллектом, подобным человеческому, сообщил представитель Bloomberg. Современные чат-боты, такие как ChatGPT, находятся на уровне 1. OpenAI утверждает, что приближается к уровню 2, определенному как система, способная решать базовые проблемы на уровне человека с докторской степенью.
Уровень 3 подразумевает ИИ-агентов, способных действовать от имени пользователя. Уровень 4 включает в себя ИИ, способный создавать новые инновации. Уровень 5, последний шаг к достижению ИИ, — это ИИ, способный выполнять работу целых организаций людей. OpenAI ранее определила ИИ как «высокоавтономную систему, превосходящую людей в большинстве экономически ценных задач.»
Уникальная структура OpenAI сосредоточена вокруг ее миссии достижения ИИ, и то, как OpenAI определяет ИИ, важно. Компания сказала, что «если проект, ориентированный на ценности и ориентированный на безопасность, приближается к созданию ИИ» раньше, чем OpenAI, она обязуется не конкурировать с проектом и бросить всё, чтобы помочь. Слова в Уставе OpenAI формулировались нечетко, оставляя место для суждения коммерческой организации (управляемой некоммерческими), но шкала, на которой OpenAI может тестировать самих себя и конкурентов, могла бы помочь определить, когда будет достигнут ИИ в более четких терминах.
Тем не менее, ИИ все еще находится далеко: для достижения ИИ понадобится миллиарды и миллиарды долларов вычислительной мощности. Расписания экспертов, и даже в OpenAI, варьируются в широких пределах. В октябре 2023 года генеральный директор OpenAI Сэм Альтман сказал, что мы «пять лет, плюс-минус», прежде чем достигнем ИИ.
Эта новая шкала оценок, хотя и находится на стадии разработки, была представлена на следующий день после того, как OpenAI объявила о своем сотрудничестве с Национальной лабораторией Лос-Аламоса, целью которого является изучение того, как передовые модели ИИ, такие как GPT-4o, могут безопасно помогать в бионаучных исследованиях. Программный менеджер в Лос-Аламосе, отвечающий за биологическое портфолио национальной безопасности и активно помогший в заключении партнерства с OpenAI, рассказал The Verge, что цель заключается в проверке возможностей GPT-4o и установлении набора факторов безопасности для правительства США. В конечном итоге, на основе этих факторов можно провести тестирование общественных или частных моделей для оценки их собственных моделей.
В мае OpenAI распустила свою команду по безопасности после того, как лидер группы, соучредитель OpenAI Илья Суцкевер, покинул компанию. Ян Лайке, ключевой исследователь OpenAI, ушел в отставку вскоре после этого, утверждая в посте, что «культура безопасности и процессы отошли на второй план перед блестящими продуктами» в компании. В то время как OpenAI отрицала это утверждение, некоторые беспокоятся, что это может означать, если компания действительно достигнет ИИ.
OpenAI не предоставила деталей о том, как назначает модели на эти внутренние уровни (и отклонила запрос The Verge на комментарий). Тем не менее, лидеры компании продемонстрировали исследовательский проект с использованием модели искусственного интеллекта GPT-4 в ходе внутрикорпоративного собрания в четверг и считают, что этот проект продемонстрировал некоторые новые навыки, проявляющие человекоподобное мышление, сообщает Bloomberg.
Эта шкала может помочь обеспечить строгое определение прогресса, а не оставлять его для толкования. Например, технический директор OpenAI Мира Мурати сказала в интервью в июне, что модели в ее лабораториях не намного лучше того, что уже есть у общественности. Тем временем генеральный директор Сэм Альтман сказал в конце прошлого года, что компания недавно «отодвинула завесу невежества», что означает, что модели намного более интеллектуальны.
Cette échelle pourrait aider à fournir une définition stricte du progrès, plutôt que de le laisser à l’interprétation. Par exemple, le CTO de OpenAI, Mira Murati, a déclaré dans une interview en juin que les modèles dans ses laboratoires ne sont pas beaucoup mieux que ce que le public a déjà. Pendant ce temps, le PDG Sam Altman a déclaré fin de l’année dernière que la société a récemment «repoussé le voile de l’ignorance», ce qui signifie que les modèles sont remarquablement plus intelligents.
Источник: The Verge
Добавить комментарий
Ваш адрес email не будет опубликован.