Большие языковые модели (LLM) могут делать впечатляющие вещи — например, сочинять стихи или писать работоспособные компьютерные программы. Это создает впечатление, что нейросети обладают неким общим представлением о мире. И оно ошибочно, убедились ученые Массачусетского технологического института экспериментальным путем. Результаты исследования представлены в виде статьи на сервере препринтов arXiv. Испытаниям подвергли генеративную модель ИИ, известную как трансформер. Она положена в основу популярных LLM вроде GPT-4...
Институт вычислительной математики и математической геофизики СО РАН войдет в единый консорциум суперкомпьютерных центров России «Распределенная научная суперкомпьютерная инфраструктура». Об этом сообщила пресс-служба института. Всего в консорциум входят шесть специализированных центров коллективного пользования, которые расположены в различных регионах России. Инфраструктура консорциума объединяет 900 серверов c суммарной пиковой производительностью 1,5 ПФлопс и системами хранения научных данных более 15 Пбайт...