Найти тему
18 подписчиков

За последние десять лет исследователь искусственного интеллекта Крис Олах погрузился в изучение искусственных нейронных сетей. Работая в таких ведущих компаниях, как Google Brain и OpenAI, а ныне в своем стартапе Anthropic, который он основал вместе с коллегами, он всегда стремился понять, как ИИ работает изнутри.


По мере того как генеративный ИИ становится повсеместным, проблема “черного ящика” в ИИ вызывает все больше вопросов. Крупные модели могут легко создавать ложную информацию, и понимание их внутренней работы может помочь сделать их более безопасными.

Олах уверен, что они приближаются к этому пониманию. Его команда занимается обратным инжинирингом крупных моделей, чтобы понять, почему они генерируют те или иные выходные данные.

Согласно опубликованной статье, они добились значительных успехов. Исследователи утверждают, что рассматривают искусственные нейроны как буквы. Сами по себе буквы бессмысленны, но в определенной последовательности они образуют слова, имеющие смысл. Например, “C” не имеет смысла, но “Car” имеет.

Они используют технику, известную как словарное обучение, для объяснения работы нейронных сетей.

#Исследование #AI


Около минуты