В интернете заметили, что нейросеть Гугла, определяющая содержимое картинок стала расисткой. Службе компьютерного зрения давали 2 картинки, где белая и черная руки держат простой термометр. В первом случае Гугл определял предмет верно, но во втором ИИ упорно настаивал на том, что темнокожий держит пушку. Компания уже пытается исправить расистский алгоритм.
БЛМ начали троллить даже технологии