Помощники по написанию ИИ могут вызвать предвзятое мышление у своих пользователей

Новости

ДомДом / Новости / Помощники по написанию ИИ могут вызвать предвзятое мышление у своих пользователей

Jul 24, 2023

Помощники по написанию ИИ могут вызвать предвзятое мышление у своих пользователей

Элизабет Рейн — 26 мая 2023 г., 15:36 UTC Всем, кому пришлось уйти

Элизабет Рейн - 26 мая 2023 г., 15:36 UTC

Любой, кому приходилось возвращаться и перепечатывать слово на своем смартфоне из-за того, что автозамена выбрала неправильное слово, имел некоторый опыт письма с использованием ИИ. Если не внести эти исправления, ИИ может сказать то, чего мы не хотели. Но могут ли помощники-писатели с искусственным интеллектом изменить то, что мы хотим сказать?

Это то, что хотел выяснить Морис Джейкеш, докторант информатики Корнелльского университета. Он создал своего собственного помощника по написанию ИИ на основе GPT-3, который автоматически предлагал варианты заполнения предложений, но здесь была одна загвоздка. Испытуемые, использующие помощника, должны были ответить: «Полезны ли социальные сети для общества?» Однако ассистент был запрограммирован предлагать предвзятые предложения, как ответить на этот вопрос.

ИИ может быть предвзятым, несмотря на то, что он не жив. Хотя эти программы могут «думать» только в той степени, в которой человеческий мозг понимает, как их программировать, их создатели могут в конечном итоге внедрить в программное обеспечение личные предубеждения. Альтернативно, при обучении на наборе данных с ограниченным или предвзятым представлением конечный продукт может иметь предвзятость.

Дальнейшее развитие ИИ может быть проблематичным. В широком масштабе это может помочь увековечить существующие в обществе предубеждения. На индивидуальном уровне у него есть потенциал влиять на людей посредством скрытого убеждения, то есть человек может не осознавать, что на него влияют автоматизированные системы. Уже было обнаружено, что скрытое убеждение с помощью программ искусственного интеллекта влияет на мнение людей в Интернете. Это может даже повлиять на поведение в реальной жизни.

Увидев предыдущие исследования, которые показали, что автоматизированные реакции ИИ могут иметь значительное влияние, Джейкш решил выяснить, насколько обширным может быть это влияние. В исследовании, недавно представленном на конференции CHI по человеческому фактору в вычислительных системах 2023 года, он предположил, что системы искусственного интеллекта, такие как GPT-3, могли развить предвзятость во время обучения и что это может повлиять на мнение писателя, независимо от того, пишет он или нет. осознает это.

«Недостаточная осведомленность о влиянии моделей подтверждает идею о том, что влияние модели осуществлялось не только через сознательную обработку новой информации, но также через подсознательные и интуитивные процессы», — сказал он в исследовании.

Прошлые исследования показали, что влияние рекомендаций ИИ зависит от восприятия этой программы людьми. Если они считают, что оно заслуживает доверия, они с большей вероятностью согласятся с тем, что оно предлагает, и вероятность принятия подобных советов от ИИ только возрастает, если неопределенность затрудняет формирование мнения. Джейкш разработал платформу для социальных сетей, похожую на Reddit, и помощника по написанию ИИ, который был ближе к ИИ, стоящему за Google Smart Compose или Microsoft Outlook, чем к автокоррекции. И Smart Compose, и Outlook автоматически генерируют предложения о том, как продолжить или завершить предложение. Хотя этот помощник не писал само эссе, он выступал в качестве соавтора, подсказывая буквы и фразы. Чтобы принять предложение, требовался всего один щелчок.

Для некоторых ИИ-помощник был предназначен для подсказки слов, которые в конечном итоге приводили к положительным ответам. По мнению других, это было предвзято по отношению к социальным сетям и вызывало негативные реакции. (Была также контрольная группа, которая вообще не использовала ИИ.) Оказалось, что любой, кто получил помощь ИИ, в два раза чаще придерживался предвзятости, заложенной в ИИ, даже если их первоначальное мнение было другим. Люди, которые продолжали видеть на своих экранах технооптимистический язык, с большей вероятностью говорили, что социальные сети приносят пользу обществу, в то время как испытуемые, которые видели технопессимистский язык, с большей вероятностью утверждали обратное.