1 год назад
Внутреннее устройство Generative Pre-trained Transformer (GPT)
Generative Pre-trained Transformer (GPT) от компании OpenAI — это один из наиболее впечатляющих и мощных инструментов в области обработки естественного языка (NLP). Чтобы понять, как работает GPT и почему он так эффективен, давайте рассмотрим его внутреннее устройство и основные компоненты. GPT основан на архитектуре трансформера, предложенной в статье "Attention is All You Need" (2017). Трансформеры изначально были разработаны для задач перевода, но быстро показали свою эффективность в различных задачах NLP...
2 года назад
Marubeni готовится к Pre-FEED проекта производства электронного метана в Перу
Москва. 25 августа. INTERFAX.RU - Японская Marubeni вместе с Peru LNG S.R.L. и Osaka Gas Co. подписали соглашение о совместном исследовании для начала проведения предварительных проектно-изыскательных работ (Pre-FEED) проекта по производству в Перу электронного метана из зеленого водорода. Согласно пресс-релизу Marubeni, Pre-FEED будет включать обсуждение условий закупок возобновляемой энергии и сырья, в том числе CO2, технические исследования для строительства завода, а также оценку технико-экономических показателей. После анализа полученных данных стороны оценят, можно ли принять инвестиционное решение к 2025 году с целью запустить производство и продажу электронного метана к 2030 году...