Целая семья грибников отравилась из-за советов книги, написанной ChatGPT
В Британии целая семья отравилась грибами, воспользовавшись рекомендацией из книги-определителя, сгенерированной искусственным интеллектом.Anti-Malware.ru
Однако использование ChatGPT привело к тому, что в книге было множество ошибок.ITinfo
История попала в СМИ и Amazon попросил вернуть книгу в обмен на компенсацию.AMMIAC
В результате скандала, Amazon уже сняла с полок некоторые книги, вызвавшие беспокойство, однако проблема низкокачественной литературы, написанной нейросетями, остается актуальной.Ferra