Найти тему
30 подписчиков

B интернете заметили, что нейросеть Гугла, определяющая содержимое картинкок стала расисткой. Службе компьютерного зрения давали 2 картинки, где белая и черная руки держат простой термометр. В первом случае Гугл определял предмет верно, но во втором ИИ упорно настаивал на том, что темнокожий держит пушку. Компания уже пытается исправить расистский алгоритм.

B интернете заметили, что нейросеть Гугла, определяющая содержимое картинкок стала расисткой. Службе компьютерного зрения давали 2 картинки, где белая и черная руки держат простой термометр.
Около минуты