Компания Google объяснила, почему ее языковая модель Gemini рекомендовала пользователям есть камни и использовать клей в качестве ингредиента для пиццы.
В недавнем заявлении Google отметила, что Gemini находится на ранней стадии разработки и иногда может давать необычные или даже опасные ответы. Компания объяснила, что это происходит из-за того, что Gemini обучается на огромном количестве текстовых данных, включая данные из Интернета. Иногда она может усваивать вредную или неточную информацию.
В случае с рекомендациями по употреблению камней и клея Google заявила, что Gemini, вероятно, усвоила эту информацию из текстов, найденных в Интернете, которые содержали ироничные или шуточные комментарии. Компания отметила, что Gemini не способна понять иронию или юмор и может воспринимать такую информацию буквально.
Google также заявила, что предпринимает шаги для улучшения безопасности и надежности Gemini. Компания заявила, что вносит изменения в модель, чтобы она лучше понимала иронию и юмор. И что она также работает над созданием более надежного процесса обучения для модели.
"Мы понимаем, что рекомендации Gemini по употреблению камней и клея были неуместными и опасными", - заявила Google. "Мы приносим свои извинения за эти рекомендации и работаем над тем, чтобы предотвратить подобные инциденты в будущем".
Google также призвала пользователей проявлять осторожность при использовании Gemini и других языковых моделей. И также критически относиться к любой информации, которую они предоставляют.