Крупные компании всё чаще используют сложные технологии для решения своих задач, в частности Data Science, нейросети, искусственный интеллект. По информации из исследования MIT Sloan Management Review и BCG из 2,5 тысяч опрошенных фирм в ИИ инвестируют 90% из них. Без мощного «железа» в таких случаях не обойтись, поэтому на рынке появилось решение — облачные вычисления на базе GPU. Как это работает и где используется — в материале REG.RU. Что такое GPU? GPU появился в конце 1990-х годов и представляет из себя графический процессор для компьютера или игровой приставки...
Сегодня мы рассмотрим интегрированную в процессор видеокарту, иначе же "встройку". Ее плюсы/минусы наличия в процессоре, как можно использовать при наличии "обычной" видеокарты. Что это вообще такое и зачем нужно Изначально такое решение устанавливалось в материнские платы и представляло из себя видеочип - видеопамять бралась из ОЗУ, а питание - с материнской платы. Как правило поиграть на нем было практически нельзя, да и предназначалось лишь для вывода изображения на монитор для офисных задач. Однако в 2010 году Intel пошли дальше - они выпустили первую встроенную в процессор видеокарту...