Метод машинного обучения, объединяющий графовые трансформеры с внутренним индуктивным смещением с помощью экспоненциальной маскировки матрицы внимания “`html Градформер: метод машинного обучения, интегрирующий графовые трансформеры (GT) с внутренними индуктивными смещениями путем применения экспоненциальной маски затухания к матрице внимания Графовые трансформеры (GT) успешно достигли передовой производительности на различных платформах. GT могут захватывать информацию на большие расстояния от узлов, в отличие от локальной передачи сообщений в графовых нейронных сетях (GNN). Кроме того, механизм самовнимания в GT позволяет каждому узлу прямо смотреть на другие узлы в графе, помогая собирать информацию из произвольных узлов. Тот же механизм самовнимания в GT также обеспечивает гибкость и способность собирать информацию глобально и адаптивно. Несмотря на преимущества во многих задачах, механизм самовнимания в GT не уделяет достаточного внимания особенностям графов, таким как связанные с структурой смещения. Несмотря на то, что некоторые методы, учитывающие эти особенности, используют позиционное кодирование и модель смещения внимания для индуктивных смещений, они неэффективны в преодолении этой проблемы. Кроме того, механизм самовнимания не использует все преимущества внутренних смещений признаков в графах, что создает серьезные проблемы в захвате существенной информации о структуре графа. Пренебрежение структурной корреляции может привести к равному вниманию каждому узлу механизмом, что создает недостаточное внимание к ключевой информации и агрегацию избыточной информации. Практические решения и ценность Исследователи из Университета Ухань в Китае, Академии JD Explore в Китае, Университета Мельбурна и Университета Гриффита в Брисбене предложили Gradformer, новый метод, который инновационно интегрирует GT с индуктивным смещением. Gradformer включает специальную функцию под названием экспоненциальная маска затухания в архитектуру самовнимания GT. Этот подход помогает контролировать веса внимания каждого узла относительно других узлов путем умножения маски на оценку внимания. Постепенное уменьшение весов внимания из-за экспоненциального затухания помогает маске эффективно направлять процесс обучения в рамках механизма самовнимания. Gradformer достигает передовых результатов на пяти наборах данных, подчеркивая эффективность предложенного метода. При тестировании на небольших наборах данных, таких как NC11 и PROTEINS, он превосходит все 14 методов с улучшениями на 2,13% и 2,28% соответственно. Это показывает, что Gradformer эффективно интегрирует индуктивные смещения в модель GT, что становится важным, если доступные данные ограничены. Более того, он хорошо справляется с большими наборами данных, такими как ZINC, что показывает его применимость к наборам данных различного размера. Исследователи провели анализ эффективности Gradformer и сравнили его стоимость обучения с другими важными методами, такими как SAN, Graphormer и GraphGPS, в основном сосредотачиваясь на параметрах, таких как использование памяти GPU и время. Полученные результаты сравнения показали, что Gradformer оптимально балансирует эффективность и точность, превосходя SAN и GraphGPS в вычислительной эффективности и точности. Кроме того, несмотря на более длительное время работы по сравнению с Graphormer, он превосходит Graphormer в точности, показывая свое превосходство в использовании ресурсов с хорошими результатами производительности. В заключение...
https://itinai.ru/%d0%bc%d0%b5%d1%82%d0%be%d0%b4-%d0%bc%d0%b0%d1%88%d0%b8%d0%bd%d0%bd%d0%be%d0%b3%d0%be-%d0%be%d0%b1%d1%83%d1%87%d0%b5%d0%bd%d0%b8%d1%8f-%d0%be%d0%b1%d1%8a%d0%b5%d0%b4%d0%b8%d0%bd%d1%8f%d1%8e%d1%89
Графовый метод машинного обучения для NAS с легким вычислением (только на ЦП) и без обучения на данных “`html NASGraph: Революционный графовый метод машинного обучения для NAS с легкими (только на CPU) вычислениями и независимым от данных и обучения Проектирование передовых моделей глубокого обучения – это чрезвычайно сложная задача, которую исследователи решают с помощью метода поиска нейронной архитектуры (NAS). Цель NAS заключается в автоматизации отыскания оптимальных архитектур нейронных сетей для заданной задачи путем оценки тысяч кандидатских архитектур по метрике производительности, такой как точность на проверочном наборе данных. Практические решения: NASGraph существенно сокращает вычислительную нагрузку поиска нейронных архитектур, преобразуя их в графовые представления и используя графовые метрики для эффективной оценки их производительности. Метод NASGraph представляет собой сильный сдвиг парадигмы в поиске архитектуры нейронной сети, обходя необходимость обучения архитектуры и обладая выдающейся производительностью, низким предубеждением и рemarkable efficiency. Суррогатные модели NASGraph(h, c, m) демонстрируют возможность существенного ускорения процесса за счет использования вычислительно сведенных настроек при сохранении высокой точности. Для более детального ознакомления с методом NASGraph рекомендуем изучить https://arxiv.org/abs/2405.01306 на официальном сайте. Применение ИИ в бизнесе: Если вы хотите использовать ИИ для развития вашей компании, определите области, где возможно применение автоматизации, и какие ключевые показатели эффективности вы хотите улучшить. Выберите подходящее решение из множества вариантов ИИ и начните внедрять его постепенно, начиная с небольшого проекта, анализируя результаты и постепенно расширяя автоматизацию. Если вам нужны советы по внедрению ИИ, приглашаем обратиться к нам в нашем https://t.me/itinai. AI Sales Bot и другие решения: Попробуйте AI Sales Bot от itinai.ru – это ИИ-ассистент в продажах, который помогает снижать нагрузку на первую линию и обеспечивает эффективное взаимодействие с клиентами. Узнайте больше о том, как ИИ может изменить ваши процессы с решениями от AI Lab itinai.ru. “` Полезные ссылки: http://t.me/itinai http://t.me/itinairu https://itinai.ru/ https://itinai.ru/aisales #программирование #продажи #ии_продажи #искуственныйинтеллект #разработка #DevOps #ИИ #робототехника #блокчейн #AIethics
https://itinai.ru/%d0%b3%d1%80%d0%b0%d1%84%d0%be%d0%b2%d1%8b%d0%b9-%d0%bc%d0%b5%d1%82%d0%be%d0%b4-%d0%bc%d0%b0%d1%88%d0%b8%d0%bd%d0%bd%d0%be%d0%b3%d0%be-%d0%be%d0%b1%d1%83%d1%87%d0%b5%d0%bd%d0%b8%d1%8f-%d0%b4%d0%bb