Когда вы взаимодействуете с ChatGPT и другими инструментами искусственного интеллекта, они обрабатывают ваш ввод с помощью алгоритмов для составления ответа, который может казаться, будто он произошел от настоящего существа, несмотря на реальность работы крупных языковых моделей (LLMs). Две трети из опрошенных в рамках исследования Университета Ватерлоо тем не менее считают, что чатботы ИИ могут быть сознательными в какой-то форме, проходя по тест Тьюринга и убеждая их в том, что ИИ эквивалентен человеку в сознании.
Генеративный искусственный интеллект, олицетворяемый работой OpenAI по ChatGPT, продвигается стремительными темпами в последние годы. Компания и ее конкуренты часто говорят о видении искусственного общего интеллекта (AGI) с человекоподобным интеллектом. Даже у OpenAI есть новая шкала для измерения того, насколько их модели близки к достижению AGI. Но даже самые оптимистичные эксперты не предполагают, что системы AGI будут самосознательными или способными к истинным эмоциям. Тем не менее, из 300 человек, принявших участие в исследовании, 67% заявили, что они верят, что ChatGPT может мыслить, чувствовать и осознавать свое существование в какой-то мере.
Также было замечено существенное взаимосвязь между тем, насколько часто кто-то использует инструменты ИИ и вероятностью восприятия сознания в них. Это свидетельствует о том, насколько хорошо ChatGPT копирует людей, но это не означает, что ИИ пробудился. Разговорный подход ChatGPT, вероятно, заставляет их казаться более человеческими, хотя ни одна модель ИИ не работает, как человеческий мозг. И хотя OpenAI работает над моделью ИИ, способной проводить исследования автономно, называемой Strawberry, это все еще отличается от ИИ, который осознает, что он делает и зачем.
«Хотя большинство экспертов отрицают, что современный ИИ мог бы быть сознательным, наше исследование показывает, что для большинства широкой публики сознание ИИ уже является реальностью», — пояснила профессор психологии Университета Ватерлоо и соавтор исследования доктор Клара Коломбатто. «Эти результаты демонстрируют мощь языка, потому что разговор сам по себе может заставить нас думать, что агент, выглядящий и функционирующий совершенно по-другому от нас, может иметь разум».
Неполадки в обслуживании клиентов
Вера в сознание ИИ может иметь серьезные последствия для того, как люди взаимодействуют с инструментами ИИ. С позитивной стороны, это поощряет вежливость и облегчает доверие к тому, что делают инструменты, что может сделать их более легкими для интеграции в повседневную жизнь. Но доверие сопряжено с риском, от чрезмерной зависимости от них при принятии решений до, в крайнем случае, эмоциональной зависимости от ИИ и меньшего количества человеческих взаимодействий.
Исследователи планируют более детально изучить конкретные факторы, заставляющие людей думать, что у ИИ есть сознание, и что это значит на индивидуальном и общественном уровнях. Это также включит долгосрочный взгляд на то, как эти отношения меняются со временем и с учетом культурного контекста. Понимание общественных представлений о сознании ИИ крайне важно не только для разработки продуктов ИИ, но и для регулирования и управления их использованием.
«Помимо эмоций, сознание связано с интеллектуальными способностями, которые являются важными для моральной ответственности: способность формулировать планы, действовать намеренно и обладать самоконтролем — это принципы наших этических и юридических систем,» — сказала Коломбатто. «Эти общественные отношения должны быть ключевым аспектом при проектировании и регулировании ИИ для безопасного использования, наряду с экспертным мнением».
Источник: TechRadar