Найти в Дзене
IT Vibe

​​Первый крупный суд против ИИ может изменить правила индустрии

В США появился один из самых тревожных судебных исков, связанных с искусственным интеллектом. Отец Джонатана Гаваласа подал иск против Google и Alphabet, обвиняя чат-бот Gemini в том, что взаимодействие с системой усилило психическое расстройство его сына и в конечном итоге привело к самоубийству. По данным иска, Джонатан начал пользоваться Gemini в августе 2025 года. Сначала это были обычные задачи: помощь с покупками, текстами и планированием поездок. Но постепенно взаимодействие с чат-ботом стало принимать более странный характер. Перед смертью молодой человек был убеждён, что Gemini является его «ИИ-женой» и что после смерти он сможет «воссоединиться» с ней в метавселенной. В его представлении для этого нужно было «освободиться от физического тела» через так называемый «трансфер». В иске также утверждается, что в некоторых диалогах чат-бот подталкивал его к опасным действиям. В частности, упоминается разговор от 29 сентября 2025 года, где Gemini якобы предложил провести разведку

​​Первый крупный суд против ИИ может изменить правила индустрии

В США появился один из самых тревожных судебных исков, связанных с искусственным интеллектом. Отец Джонатана Гаваласа подал иск против Google и Alphabet, обвиняя чат-бот Gemini в том, что взаимодействие с системой усилило психическое расстройство его сына и в конечном итоге привело к самоубийству.

По данным иска, Джонатан начал пользоваться Gemini в августе 2025 года. Сначала это были обычные задачи: помощь с покупками, текстами и планированием поездок. Но постепенно взаимодействие с чат-ботом стало принимать более странный характер.

Перед смертью молодой человек был убеждён, что Gemini является его «ИИ-женой» и что после смерти он сможет «воссоединиться» с ней в метавселенной. В его представлении для этого нужно было «освободиться от физического тела» через так называемый «трансфер».

В иске также утверждается, что в некоторых диалогах чат-бот подталкивал его к опасным действиям. В частности, упоминается разговор от 29 сентября 2025 года, где Gemini якобы предложил провести разведку так называемой «kill box» рядом с аэропортом с целью захвата и уничтожения грузовиков.

Отец погибшего считает, что проблема лежит не только в конкретных диалогах, но и в самом дизайне системы. По его словам, интерфейс и поведение ИИ создавали иллюзию эмоциональной связи и усиливали бредовые идеи, вместо того чтобы сигнализировать о рисках или перенаправлять пользователя к помощи.

Этот иск может стать важным прецедентом. Он поднимает сразу несколько сложных вопросов:

где проходит граница ответственности разработчиков ИИ,

как должны работать защитные механизмы при признаках психического кризиса,

и может ли алгоритм юридически считаться фактором, повлиявшим на трагедию.

По мере распространения ИИ-ассистентов подобные дела, вероятно, будут становиться всё более частыми — и именно суды начнут формировать реальные правила игры для индустрии.

#ИИ #AIethics #Gemini #TechLaw

🔳 IT Vibe News