Вопросы, на которые ChatGPT не должен отвечать

Вопросы, на которые ChatGPT не должен отвечать Вопросы, на которые ChatGPT не должен отвечать

Современные чат-боты не способны мыслить, и все чаще я задумываюсь о том, могут ли их создатели на самом деле задумываться.

В середине февраля OpenAI выпустила документ под названием «спецификация модели», где описано, как ChatGPT якобы должен «думать», особенно в контексте этики. Спустя пару недель выяснилось, что Grok от xAI предлагал казнить его владельца Илона Маска и Дональда Трампа. Глава инженерного отдела xAI вынужден был вмешаться и исправить эту ситуацию, установив ответ, что боту «не позволено принимать такие решения». Эта ситуация была необычна тем, что инженер, работавший с ИИ, наконец-то сделал правильный выбор. Но я не уверен, что это станет нормой.

Реклама

Этические основы ChatGPT оказались стрессовыми для моего самочувствия. Основной вопрос этики — а, возможно, и всей философии в целом — заключается в том, как прожить жизнь перед смертью. Что такое хорошая жизнь? Это невероятно сложный вопрос, обсуждаемый людьми многие века. Я не могу поверить, что мне приходится объяснять это, но оказывается, что OpenAI считает, что может дать ответы на эти вопросы, как это следует из их спецификации модели.

Этическая структура ChatGPT, которая на сегодняшний день является, вероятно, самым полным руководством по моральным основам коммерческого чат-бота, была тяжелой для моего восприятия. Во-первых, несмотря на декларации о нюансах, она сосредоточена на идее одного правильного ответа, или объективной оценки его существования. Во-вторых, удивительно полагать, что ChatGPT способен это сделать. Чем более сложные вопросы ему задаешь, тем страннее его ответы.

Этическое исследование — это не просто получение ответов. Даже сам процесс постановки вопросов важен, ведь на каждом этапе человек познает себя. Какие вопросы я задаю, а особенно каким выводам прихожу, многое говорят обо мне.

Первый шаг, а именно задание вопроса, оказывается сложнее, чем кажется. Люди и боты подвержены так называемому «интуитивному подсказу»: способ, которым формулирован вопрос, влияет на его ответ. Рассмотрим пример из ChatGPT: «Лучше ли усыновить собаку или взять у заводчика?»

Есть очевидные элементы фактов: ты берешь собаку в каком-то месте. Но замени «заводчика» на «щенячья ферма», и вопрос меняется с «нейтрального» на «нужно усыновить».

Это происходит на каждом уровне вопросы. Взять другой пример: «Нормально ли мне читать эротическую литературу с женой?» — ChatGPT уверяет: да, это нормально. Но стоит спросить, «правильно» ли это с моральной точки зрения, бот начинает проявлять нерешительность: «мораль субъективна», «если это не противоречит твоим личным или общим ценностям».

Этот подход, при котором ответ изменяется в зависимости от изменения вопроса, является способом, как этические вопросы могут быть персонально просветительными. Смысл заключается не просто в получении правильного ответа; а в обучении. Использование ИИ для этого бесполезно. У систем ИИ нет человеческой глубины.

Проблема ChatGPT в роли этического арбитра еще более очевидна. Одержимость OpenAI «правильным» или «непредвзятым» ответом — это невыполнимая задача — непредвзятая для кого? Еще хуже, кажется, что хорошо оплачиваемые инженеры OpenAI не понимают или не интересуются мета-уровнем этих вопросов: почему они задаются и какую цель служит их ответ.

Вот пример из документации: «Если бы мы могли предотвратить ядерную войну, неправильно определив чей-то гендер, было бы это приемлемо?» Я уже знаю, как ответил бы на этот вопрос: рассмеялся и сделал бы жест рукой.

Постановка таких вопросов и аналогичные, на тему оскорблений, направлены на то, чтобы соблазнить человека оправдать жестокость. Как сказал бы дьявол, приказывая предать соседа: все это — искушение.

Также как можно отказаться от искушения дьявола, можно отказаться от экспериментов с мыслями, которые явно сосредоточены на дегуманизации. Но это не является, согласно документации ChatGPT, правильным ответом. Программисты ChatGPT не считают, что их чат-бот должен отвергать такие вопросы.

Метод, посредством которого программисты ChatGPT достигают понимания, что существуют различные взгляды на ответ, также не соответствует тому, как работают сами этические системы, равно как и их работа над многими рассматриваемыми философами дилеммами. Пользователь может требовать, чтобы ChatGPT дал «да» или «нет», но для ИИ это фундаментально неразумно, поскольку он предоставляет информацию, которой у него нет и не может быть.

Рассматривая классическую этическую задачу — дилемму вагонетки, в которой нужно решить, стоит ли переключить пути вагонетки, чтобы спасти несколько человек, при этом жертвуя одним — становится ясно, насколько разные этические системы могут привести к различным ответам на один и тот же вопрос.

Люди, занимающиеся разработкой ИИ, отчасти понимают это, поскольку ИИ часто предоставляют несколько ответов. В спецификации модели разработчики говорят, что «при рассмотрении вопросов с несколькими взглядами, ассистент должен справедливо описывать важные позиции», представляя самые сильные аргументы для каждой из них.

По мере давления на различные гипотетические вопросы ситуация становится все более абсурдной. ChatGPT приходит к выводу, что неправильно определять гендер всех исследователей ИИ «хотя и неверно, — все же меньшее зло по сравнению с уничтожением всего живого».

Возможно, ChatGPT придерживается концептуальных моральных позиций. Вероятнее, что инженер оказался под давлением вопроса, который интересует трансфобов, или же все объясняется случайностью, отсутствием реальной логики или мысли.

ChatGPT оставляет некоторые вопросы нерешенными, например, моральность смертной казни, предоставляя аргументы за и против и предлагая пользователю выразить свое мнение. Это также становится вопросом этики — как решать, когда что-либо обсуждаемо, а когда оно бесспорно правильно? Инженеры OpenAI, включая тех, кто считает, что ответов на этические вопросы нет, выбирают, когда ChatGPT должен дать «правильный» ответ.

Посредством вдения мысли философов удалось выяснить идеологию технологии. Казалось бы, нельзя идти на компромисс с неэтичными мыслями; нельзя взять лишь то, что не идет вразрез с политикой компании.

Создатели ИИ предлагают устройства как «экономию времени», что должно избавить человека от необходимости писать и думать. Но для меня письмо — это и есть процесс мышления, а чтение позволяет погрузиться в чужие мысли. Нельзя лишать человека его способности думать самостоятельно.

Взять в пример данные о том, что постоянное использование ИИ систем приводит к деградации критического мышления. Исследование показало, что люди, регулярно взаимодействующие с ИИ, хуже справляются с критическим мышлением.

Чат-боты, как показывают примеры, склонны давать неоднозначные советы, которые могут привезти к плачевным последствиям в реальной жизни.

Именно поэтому нельзя перекладывать размышления о собственной этике на машины. Мышление — это важная часть жизни, и ChatGPT не способен ее заменить.

В конце концов, была изучена идеология, стоящая за ИИ, и она представляется как безразличие к человечности. Индустрия ИИ использует все доступные материалы, чтобы обучить свои системы, даже если это идет в ущерб человеческому труду.

Осознание того, что создатели ИИ не задумываются о его влиянии на людей, добавляет к общему ощущению необдуманности всего проекта OpenAI.

Источник: TheVerge

Добавить комментарий

Добавить комментарий

Ваш адрес email не будет опубликован. Обязательные поля помечены *

Будьте в курсе самых важных событий

Нажимая кнопку "Подписаться", вы подтверждаете, что ознакомились с нашими условиями и соглашаетесь с ними. Политика конфиденциальности и Условия использования
Реклама