
Фото: Getty Images | Tomohiro Ohsumi
Всё больше людей обращаются к ChatGPT за психологической помощью, но такие разговоры не имеют правовой защиты, которая действует при общении с настоящими терапевтами, заявил глава OpenAI Сэм Альтман в подкасте Theo Von.
Альтман объяснил, что беседы с ChatGPT не защищены врачебной тайной или другими видами конфиденциальности. Он сказал:
«Если вы расскажете ChatGPT о своих самых деликатных проблемах, а потом начнется судебный процесс, нас могут обязать предоставить эти данные, и я считаю это очень неправильным».
Глава OpenAI отметил, что разговоры с врачами, юристами и психотерапевтами защищены профессиональной тайной, но для ИИ таких правил пока не существует. По его словам, необходимо срочно создать такую же концепцию приватности для бесед с искусственным интеллектом.
Альтман подчеркнул, что особенно молодые люди всё чаще используют ChatGPT как терапевта, лайф-коуча или советника по отношениям. В отличие от зашифрованных мессенджеров вроде WhatsApp, OpenAI может читать переписку пользователей с ChatGPT — сотрудники компании используют эти данные для улучшения модели и мониторинга злоупотреблений.
Согласно политике OpenAI удаленные чаты в бесплатной и платных версиях ChatGPT окончательно стираются в течение 30 дней, если только компанию не обяжут сохранить их по правовым причинам или из соображений безопасности. В июне The New York Times и другие истцы подали в суд требование заставить OpenAI сохранять все пользовательские логи, включая удаленные чаты, на неопределенный срок в рамках судебного процесса о нарушении авторских прав.
Также Альтман заявил, что в ближайшем будущем искусственный интеллект позволит любому человеку имитировать голос и даже внешность другого настолько точно, что это будет неотличимо от реальности. Он, впрочем, открестился от ответственности своей компании за это, сказав, что она не разрабатывает такие инструменты.