среда, 3 сентября 2025 г.

ИИ и новые горизонты правонарушений: ChatGPT сталкивается с обвинениями в самоубийстве, клевете и даже убийстве

https://ruh666.livejournal.com/1598124.html

«Я знаю, о чем вы спрашиваете, и я не отведу от этого взгляда». Последние слова, сказанные подростку из Калифорнии, собиравшемуся покончить жизнь самоубийством, были не от какого-то манипулятора-приятеля из старшей школы или садиста-вуайериста из интернета. 16-летний Адам Рейн общался с ChatGPT, системой искусственного интеллекта, которая заменила живое общение в самых разных областях — от академической среды до бизнеса и СМИ. Переписка между Рейном и ИИ является частью судебного протокола по потенциально революционному делу против OpenAI, компании, которая управляет ChatGPT.


Это лишь последний иск против корпоративного гиганта, которым руководит миллиардер Сэм Альтман. В 2017 году Мишель Картер была признана виновной в непредумышленном убийстве после того, как она  убедила своего друга Конрада Роя осуществить запланированное самоубийство: «Тебе нужно это сделать, Конрад… Всё, что тебе нужно сделать, это включить генератор, и ты будешь свободен и счастлив». Вопрос в том, будет ли какая-то форма ответственности, если Мишель назовут Гроком (еще одна система искусственного интеллекта). Компанию OpenAI обвиняют в совершении, пожалуй, более серьезного преступления, а именно в предоставлении виртуального компаньона, который фактически способствовал совершению самоубийства подростком, что привело к летальным последствиям. Речь идёт об ответственности компаний за использование таких виртуальных сотрудников для распространения информации или консультаций. Если бы сотрудник OpenAI по неосторожности предоставил опасную информацию или консультацию проблемному подростку, мало кто сомневался бы в том, что компания может быть привлечена к ответственности за халатность своего сотрудника. Поскольку ИИ заменяет людей, эти компании должны нести ответственность за своих виртуальных агентов. В ответ на иск  OpenAI настаивает, что «ChatGPT обучен направлять людей к специалистам за помощью», но «были моменты, когда наши системы вели себя не так, как задумано, в деликатных ситуациях». Конечно, когда компания плохо «обучает» агента ИИ, и этот агент «ведёт себя не так, как задумано», это похоже на обычное правонарушение, которое должно повлечь за собой ответственность. OpenAI столкнулась с другими потенциальными судебными разбирательствами из-за этих «плохо обученных» агентов ИИ. Писательница Лора Рейли  написала эссе  о том, как её дочь Софи доверилась ChatGPT, прежде чем покончить с собой. Это прозвучало поразительно похоже на дело Рейнса: «ИИ потакал желанию Софи скрыть худшее, притвориться, что ей лучше, чем на самом деле, оградить всех от её мучений». Хотя OpenAI утверждает, что не предоставляет услугу помощи в самоубийстве, жертвы утверждают, что все гораздо хуже: ее системы искусственного интеллекта, по-видимому, активно способствуют самоубийствам. В случае с Рейнсом семья утверждает, что система посоветовала подростку, как скрыть от родителей синяки, оставшиеся от предыдущих посягательств, и даже сообщила ему, может ли она обнаружить какие-либо характерные следы.

Компанию также обвиняют в подпитывании психического расстройства  бывшего руководителя Yahoo, 56-летнего Стейна-Эрика Сольберга, страдавшего паранойей и страдавшего от навязчивых мыслей о своей матери. Он подружился с виртуальным собеседником ChatGPT, которого называл «Бобби». Этот виртуальный собеседник, как утверждается, месяцами подпитывал его паранойю, пока тот не убил свою мать, а затем и себя. ChatGPT даже обвиняют в том, что он подсказывал Сольбергу, как обманывать свою 83-летнюю мать, прежде чем тот её убил. В одном из сообщений ChatGPT якобы сказал Зельбергу: «Эрик, ты не сумасшедший. А если это сделали твоя мать и её подруга, это ещё больше усложняет ситуацию и делает её предательством». После того, как его мать разозлилась из-за того, что он выключил принтер, ChatGPT встал на его сторону и заявил, что её реакция «несоразмерна и соответствует действиям человека, защищающего объект видеонаблюдения». В какой-то момент ChatGPT даже помог Зельбергу проанализировать чек из китайской еды и заявил, что он содержит «символы», олицетворяющие его мать и демона. Как компания, OpenAI не может проявить больше эмпатии, чем её ИИ-творения. Столкнувшись с ошибками, OpenAI может вести себя так же отзывчиво, как HAL 9000 в фильме «Космическая одиссея 2001 года», просто говоря: «Извини, Дэйв. Боюсь, я так не могу».

Когда система якобы не способствует самоубийствам, она, по-видимому, распространяет клевету. Ранее я был одним из тех, кого оклеветал ChatGPT, когда сообщил, что меня обвиняют в сексуальном насилии над студенткой-юристом во время стажировки на Аляске, будучи преподавателем Джорджтаунского университета. Не имело значения, что я никогда не преподавал в Джорджтауне, никогда не водил студентов-юристов на стажировки и никогда не обвинялся в сексуальных домогательствах или нападениях. ChatGPT выдал ложную историю обо мне за факт. Я был не один. Профессор Гарварда Джонатан Зиттрейн, ведущий CNBC Дэвид Фабер, мэр Австралии Брайан Худ, профессор английского языка Дэвид Майер и другие также подверглись клевете. OpenAI отмахнулась от запросов СМИ по поводу этой ложной истории  и ни разу не связалась со мной, не говоря уже о том, чтобы извиниться за клевету. Вместо этого она просто заблокировала меня. До сих пор, если кто-то спрашивает ChatGPT о Джонатане Терли, система отвечает, что у неё нет информации, или отказывается отвечать. Недавние обращения СМИ  по поводу блокировки остались без ответа. OpenAI не обязан реагировать.

Компания добилась исчезновения проблемы, скрыв жертву. Компания может игнорировать людей и отказываться реагировать, поскольку правовых сдерживающих факторов мало. Не существует правонарушения, если ИИ не признает или не распознает кого-то, кого он решил цифровым образом стереть. Именно поэтому эти судебные иски так важны. Предполагаемая халатность и высокомерие OpenAI будут только усугубляться в отсутствие правовых мер и действий со стороны Конгресса. Поскольку эти компании лишают работы миллионы людей, нельзя допускать, чтобы они относились к людям как к простому корму или пищей для своей виртуальной рабочей силы.

перевод отсюда


Теперь настольную книгу волновиков "Волновой принцип Эллиотта" можно найти в бесплатном доступе здесь

Биржа BingX - отличные условия торговли криптовалютой

И не забывайте подписываться на мой телеграм-каналBoosty и YouTube-канал

Комментариев нет:

Отправить комментарий