Разрыв между открытыми и закрытыми моделями ИИ может сокращаться.

Разрыв между открытыми и закрытыми моделями ИИ может сокращаться.

Сегодняшние лучшие модели ИИ, такие как ChatGPT от OpenAI и Claude от Anthropic, действуют с определенными условиями: их создатели регулируют условия доступа, чтобы предотвратить использование в опасных целях. Это контрастирует с «открытыми» моделями, которые могут быть скачаны, изменены и использованы кем угодно практически для любых целей. Новый отчет от некоммерческой исследовательской организации Epoch AI показывает, что доступные на сегодняшний день открытые модели отстают примерно на год от лучших закрытых моделей.

«Лучшая открытая модель сегодня сопоставима по производительности с закрытыми, но с отставанием примерно на один год», — отмечается в исследовании. Модель Llama 3.1 с 405 миллиардами параметров от компании Meta, выпущенная в июле, достигла возможностей первой версии GPT-4 спустя около 16 месяцев. Если следующее поколение ИИ от Meta, Llama 4, также будет представлено как открытая модель, ожидается, что разрыв может еще больше сократиться. Эти выводы появились на фоне усилий политиков, которые ищут способы справиться с возрастающей мощью ИИ-систем, которые уже изменяют информационные пространства перед выборами в разных странах и вызывают опасения, что в один прекрасный день смогут вызвать пандемии, сложные кибератаки и другие угрозы для людей.

Реклама

Исследователи Epoch AI проанализировали сотни значительных моделей, выпущенных с 2018 года. Для своих выводов они оценили производительность лучших моделей по техническим критериям — стандартизированным тестам, измеряющим способность ИИ решать математические задачи, отвечать на общие вопросы и демонстрировать логическое мышление. Они также обратили внимание на количество используемой вычислительной мощности, поскольку это является хорошим индикатором возможностей. Однако, благодаря улучшению алгоритмов эффективности ИИ, открытые модели иногда могут демонстрировать результаты, аналогичные закрытым, даже при использовании меньших вычислительных ресурсов. «Запоздание между открытыми и закрытыми моделями предоставляет возможность для политиков и лабораторий ИИ оценить передовые возможности, прежде чем они станут доступны в открытых моделях», — отмечается в отчете Epoch AI.

Отличие между «открытыми» и «закрытыми» моделями ИИ не такое простое, как может показаться на первый взгляд. Несмотря на то, что Meta описывает свои модели Llama как открытые, они не соответствуют новому определению, представленному Открытой Инициативой, которое требует, чтобы компании делились не только самой моделью, но и данными, и кодом для обучения. Хотя Meta предоставляет «веса» модели (длинные списки чисел, позволяющие скачивать и изменять модель), она не делится ни данными, ни исходным кодом для их обучения. Перед загрузкой модели пользователи должны согласиться с Политикой Приемлемого Использования, которая запрещает военное использование и другие вредные или незаконные действия. Однако, после загрузки моделей, в реальности эти ограничения трудно контролируются.

Meta заявляет, что они не согласны с новым определением открытого кода. «Определение открытого ИИ — это вызов, потому что предыдущие определения открытого исходного кода не охватывают всю сложность современных стремительно развивающихся моделей ИИ», — говорится в их заявлении. «Мы делаем Llama бесплатно доступной и открытой, а наша лицензия и Политика Приемлемого Использования помогают защитить людей, устанавливая некоторые ограничения».

Создание открытых моделей ИИ приносит множество преимуществ, поскольку это демократизирует доступ к технологиям и стимулирует инновации и конкуренцию. Открытые сообщества, включая академических исследователей, независимых разработчиков и некоммерческие лаборатории ИИ, способствуют инновациям через сотрудничество, особенно в увеличении эффективности технических процессов. Например, в Индии ИИ, встроенный в доставку публичных услуг, практически полностью основан на моделях с открытым кодом.

Открытые модели также обеспечивают большую прозрачность и подотчетность. «Должна существовать открытая версия любой модели, ставшей базовой инфраструктурой для общества, потому что необходимо знать, откуда исходят проблемы», — считают специалисты. Они приводят в пример Stable Diffusion 2, открытую модель генерации изображений, которая позволила исследователям и критикам изучать ее обучающие данные и адресовывать потенциальные предвзятости или нарушения авторских прав — нечто невозможное с закрытыми моделями, такими как DALL-E от OpenAI. Однако возможность использовать открытые модели без ограничений создает риски, так как люди с недобросовестными намерениями могут использовать их во вред.

Закрытые проприетарные модели создают собственные вызовы. Хотя они безопаснее, поскольку доступ контролируется разработчиками, они также более непрозрачны. Сторонние лица не могут изнутри проверить данные, на которых обучены модели, чтобы выявить предвзятость, использование защищенных авторским правом материалов и другие проблемы. Организации, использующие ИИ для обработки конфиденциальных данных, могут отказаться от закрытых моделей из-за проблем с конфиденциальностью.

На текущий момент безопасность закрытых моделей в основном обеспечивается частными компаниями, хотя государственные учреждения, такие как Американский институт безопасности ИИ, все больше участвуют в тестировании моделей на безопасность перед их запуском.

Из-за отсутствия централизованного контроля открытые модели представляют уникальные вызовы в отношении управления, особенно в отношении потенциальных экстремальных рисков, которые будущие ИИ-системы могут представить. Как должны реагировать политики, зависит от того, сужается ли или расширяется разрыв в возможностях между открытыми и закрытыми моделями.

Для компаний, таких как OpenAI и Anthropic, продажа доступа к их моделям является основой бизнес-модели. Однако для таких компаний, как Meta, это не основная задача. «Мы ожидаем, что будущие модели Llama станут самыми передовыми в индустрии», — заявляет Meta, подчеркивая их приверженность открытости, модифицируемости и экономической эффективности.

Измерение способностей ИИ-систем является сложной задачей. Открытые модели можно адаптировать к широкому спектру приложений, и они могут превосходить закрытые модели, если обучены для выполнения конкретных задач.

Даже если в развитии ИИ больше не будет прогресса, потребуется много лет, чтобы эти системы полностью интегрировались в наш мир. С появлением новых возможностей у ИИ-систем будет расти и сложность их регулирования.

Таким образом, важно четко определить, какие риски стоят на кону, и разработать четкие модели угроз, чтобы понять, как открытость может привести к их реализации, и затем определить лучший момент для вмешательства.

Источник: Time

Добавить комментарий

Добавить комментарий

Ваш адрес email не будет опубликован. Обязательные поля помечены *

Будьте в курсе самых важных событий

Нажимая кнопку "Подписаться", вы подтверждаете, что ознакомились с нашими условиями и соглашаетесь с ними. Политика конфиденциальности и Условия использования
Реклама