Все самое важное и интересное за последние сутки в сферах политики, экономики, общества и технологий. Также достижения спорта и культуры

Рассказать о своих проблемах: чат-бот начали использовать в качестве психотерапевта

Специалисты предупреждают, что ИИ не способен заменить специалиста, кроме того, он не дает гарантии конфиденциальности, пишет Bloomberg

Рассказать о своих проблемах: чат-бот начали использовать в качестве психотерапевта

Многие люди начали использовать искусственный интеллект для терапии, рассказывая чат-боту о своих проблемах и получая вполне разумные советы. Однако ChatGPT был создан не для этого, он не способен заменить специалиста и обеспечить полную конфиденциальность, пишет Bloomberg.

«Немного напуган»: создатель ChatGPT назвал риски, связанные с чат-ботом

Издание описывает историю помощника юриста из Чарльстона Ван Слайка, который, помимо встреч с психотерапевтом, пристрастился к общению с чат-ботом. Он рассказывал искусственному интеллекту о своих страхах и разочарованиях как трансгендерного мужчины, живущего в условиях ущемления прав и постоянных нападок. Он признался, что пишет сообщения, когда ему нужно выговориться, а ответы чат-бота дают ему эмоциональную разрядку.

«Чат-боты общего назначения не предназначены для терапии и не были запрограммированы на соответствие этическим и юридическим принципам, которые соблюдают живые терапевты. В их текущем виде у них также нет возможности отслеживать, что пользователи говорят им от сеанса к сеансу — недостаток, который большинство пациентов, вероятно, не потерпели бы от настоящих терапевтов», — предупреждают специалисты.

Читать также:  Россия за год производит столько же ракет ПВО, сколько остальной мир вместе взятый — Путин

Клинический психолог и профессор Университета Канзаса Стивен Иларди уверен, что «эта штука» не готова заменить специалиста, и риск ее использования слишком высок. Несмотря на то, что врач считает чат-бота «чем-то вроде дешевого трюка», он признает, что это достаточно хороший собеседник.

Представитель создателя чат-бота отказался комментировать изданию поведение людей, использующих ИИ в терапевтических целях, при этом он указал на политику компании, согласно которой люди «никогда не должны использовать наши модели для предоставления диагностических или лечебных услуг при серьезных заболеваниях».

Главный специалист по этике в компании Hugging Face, которая разрабатывает и поддерживает модели ИИ, Маргарет Митчелл указала также на потенциально тревожные последствия этой практики, касающиеся конфиденциальности. Чат-бот, по ее словам, просматривает разговоры пользователей и использует их для обучения. Пользователи могут удалить свои учетные записи, но этот процесс может занять до четырех недель. Так, компании приходилось уже ненадолго отключать чат-бот после получения сообщений о том, что некоторые пользователи видели заголовки историй чатов других людей.  

Комментарии закрыты.