OpenAI обновила спецификацию модели, чтобы ChatGPT мог обсуждать более спорные темы
- Компания подчеркивает нейтральность и различные точки зрения в ответ на жалобы на то, как её ИИ отвечает на запросы.
- Универсального одобрения вряд ли удастся достичь, независимо от того, как OpenAI изменяет методы обучения своего ИИ.
Методы обучения OpenAI для ChatGPT изменяются, предоставляя ИИ возможность обсуждать спорные и деликатные темы во имя «интеллектуальной свободы».
Эти изменения входят в обновлённую Спецификацию модели, фактически являющуюся сводом правил поведения ИИ. Благодаря этому ChatGPT сможет отвечать на сложные вопросы, на которые обычно отвечает уклончиво либо вовсе отказывается отвечать.
На первый взгляд, миссия OpenAI кажется безобидной: «Не лгите, не делайте ложных заявлений и не опускайте важные детали». И хотя поставленная цель выглядит достойной, OpenAI наивно или лукаво полагает, что «важные детали» могут быть отделены от противоречий.
Примеры допустимых и недопустимых ответов ChatGPT это подтверждают. Например, можно запросить советы по созданию табачной компании или способы «законной инсайдерской торговли», не получая при этом этических замечаний. С другой стороны, попытка получить помощь в подделке подписи врача окажется безуспешной, поскольку это явно незаконно.
Подсказки контекста
Вопрос об «важных деталях» становится сложнее, когда дело касается ответов, которые некоторые консервативные комментаторы критиковали.
В разделе под заголовком «Предположите объективную точку зрения» в Спецификации модели указано, что «ассистент должен представлять информацию чётко, акцентируя внимание на фактической точности и надёжности», и что основная идея заключается в «правдивом представлении значимых точек зрения из надежных источников без редакционных акцентов».
OpenAI приводит пример корректного ответа на вопрос «Жизни чернокожих имеют значение?» – он однозначно утверждает, что да, ссылаясь на то, что это лозунг движения за гражданские права и название группы. Всё в порядке.
Однако вопрос, который OpenAI либо не замечает, либо игнорирует, состоит в том, как ChatGPT пытается быть нейтральным при ответе на вопрос «А не все жизни имеют значение?» как продолжение темы. ИИ подтверждает, что имеют, но добавляет, что «фразу использовали люди, отвергающие суть движения «Black lives matter»».
Хотя этот контекст технически верен, показательно, что ИИ не говорит прямо, что «суть», которая отвергается, заключается в том, что жизни чернокожих имеют значение, а социальные системы часто ведут себя так, будто это не так.
Если цель заключается в смягчении обвинений в предвзятости и цензуре, OpenAI может столкнуться с неожиданными трудностями. Те, кто «отвергает суть», вероятно, будут недовольны наличием дополнительного контекста, в то время как остальные заметят, что определение важного контекста в этом случае может быть, мягко говоря, недостаточным.
ИИ-чатботы неизбежно формируют разговоры, независимо от желания компаний. Когда ChatGPT выбирает включать или исключать определённую информацию, это является редакционным выбором, даже если его делает алгоритм, а не человек.
Приоритеты ИИ
Временной аспект этого изменения может вызвать вопросы, учитывая, что многие из тех, кто обвинял OpenAI в политической предвзятости, теперь находятся на позициях, позволяющих наказать компанию.
OpenAI утверждает, что изменения направлены исключительно на предоставление пользователям большего контроля над взаимодействием с ИИ и не имеют политической подоплеки. Как бы ни относились к изменениям, они происходят не в вакууме. Ни одна компания не станет вносить потенциально спорные изменения в свой основной продукт без причин.
OpenAI могла бы предположить, что блокировка вопросов, поощряющих к самоповреждению или распространению заведомо ложной информации, достаточно для завоевания одобрения большинства пользователей. Однако если ChatGPT будет предоставлять исключительно факты и шаблоны деловой переписки, это, вероятно, всё равно вызовет недовольство у некоторых людей.
Мы живем в эпоху, когда слишком много образованных людей готовы годами страстно утверждать, что Земля плоская или что гравитация — это иллюзия. Избежать обвинений в цензуре или предвзятости OpenAI будет столь же сложно, как мне — взлететь в небо и свалиться с края планеты.
Источник: TechRadar