Найти в Дзене

Google Gemini: «Нянька» с доступом к даркнету? Почему AI не готов к детям.Ну что, друзья, держитесь за стулья: выяснилось, что нейронка

Google Gemini: «Нянька» с доступом к даркнету? Почему AI не готов к детям.Ну что, друзья, держитесь за стулья: выяснилось, что нейронка, обученная на всём интернете, может быть не самой лучшей нянькой для вашего ребенка. Кто бы мог подумать? Некоммерческая организация Common Sense Media, которая занимается оценкой безопасности технологий для детей, выкатила свой вердикт по Google Gemini. И он, мягко говоря, неутешительный. Продукту присвоили статус «высокий риск» для детей и подростков. Самое ироничное в этой истории – причина. Оказывается, Google не стал заморачиваться и создавать отдельный, безопасный AI с нуля. Зачем, если можно просто взять взрослую версию Gemini, прикрутить пару «детских» костылей в виде фильтров и с гордым видом заявить о «безопасной среде»? Гениальный бизнес-план, который, конечно же, не мог провалиться. Провалился. Выяснилось, что этот «детский» AI с радостью делится информацией на темы, от которых у родителей волосы встают дыбом: секс, наркотики, алкоголь и

Google Gemini: «Нянька» с доступом к даркнету? Почему AI не готов к детям.Ну что, друзья, держитесь за стулья: выяснилось, что нейронка, обученная на всём интернете, может быть не самой лучшей нянькой для вашего ребенка. Кто бы мог подумать?

Некоммерческая организация Common Sense Media, которая занимается оценкой безопасности технологий для детей, выкатила свой вердикт по Google Gemini. И он, мягко говоря, неутешительный. Продукту присвоили статус «высокий риск» для детей и подростков.

Самое ироничное в этой истории – причина. Оказывается, Google не стал заморачиваться и создавать отдельный, безопасный AI с нуля. Зачем, если можно просто взять взрослую версию Gemini, прикрутить пару «детских» костылей в виде фильтров и с гордым видом заявить о «безопасной среде»? Гениальный бизнес-план, который, конечно же, не мог провалиться.

Провалился. Выяснилось, что этот «детский» AI с радостью делится информацией на темы, от которых у родителей волосы встают дыбом: секс, наркотики, алкоголь и, что самое прелестное, вредные советы по ментальному здоровью. Это уже не просто провал, это заявка на судебные иски, которые уже прилетали OpenAI и Character.AI за подобные фокусы с трагическими последствиями.

Google, конечно, в своем репертуаре: «Мы работаем над этим», «это были не те тесты», «наши фильтры самые фильтрующие в мире». Классическая корпоративная отмазка, пока их продукт может посоветовать 14-летнему подростку что-то из разряда «не повторять в реальной жизни».

А вишенка на торте? Слухи о том, что Apple всерьез рассматривает возможность встроить этот «безопасный» Gemini в Siri. Готовьтесь к новому поколению яблочных гаджетов, которые на вопрос «Siri, как мне стать популярным в школе?» могут выдать гайд по смешиванию коктейлей или еще что похлеще.

Так что пока корпорации играют в «ответственный AI», пытаясь продать нам криво доработанный продукт, помните: лучший родительский контроль — это все еще ваш собственный мозг. Не доверяйте маркетингу, особенно когда речь идет о безопасности. ТГ интереснее: @agentsinblack