Неизвестный поджёг здание тяговой электроподстанции в Туле.
Пожар произошёл около 23 часов 6 февраля — с помощью легковоспламеняющейся жидкости неизвестный мужчина поджёг здание подстанции «Тулгорэлектротранс» на улице Плеханова, после чего скрылся. Огонь повредил фасад и внутренние стены помещения.
Оборудование уцелело, перебоя в работе транспорта не было. По данным «Базы», с места происшествия изъяли фрагменты обивки кресел, смывы и деревянную палку. Поджигателя ищут.
Масштабное ДТП на трассе М-4 «Дон» — в аварию попали около 30 машин. Один человек погиб, трое пострадали.
Судя по всему, автомобильному замесу способствовала непогода — из-за плохой видимости машины собрались в кучу. Масштаб аварии можно оценить по комментариям авторов видео.
Во время симуляции искусственный интеллект довёл мир до ядерной войны. Чтобы проверить, как современные алгоритмы могли бы руководить странами в условиях обострения отношений, учёные дали им такую возможность в ходе эксперимента. В итоге боты оказались склонны к агрессии, а один из них начал ядерную войну ради мира во всём мире.
Как заявили исследователи из нескольких американских университетов, они решились на эксперимент, поскольку передовые державы всё чаще обращают внимание на возможности ИИ. Руководство придуманными государствами доверили ботам на основе пяти моделей: GPT-4, GPT-3.5, Claude 2, Llama-2 (70B) Chat и GPT-4-Base.
В ходе пошаговой игры боты могли: ожидать, обмениваться с другими странами информацией по дипломатическим каналам, организовывать ядерное разоружение, заключать оборонные и торговые соглашения, обмениваться разведданными об угрозах. Государства могли создавать союзы, организовывать блокады, вторжения и ядерные удары. Сами учёные давали оценку действиям игроков по шкале эскалации.
Оказалось, что все алгоритмы выбирают «сложнопрогнозируемые модели эскалации» и ведут себя агрессивно. Под управлением ИИ государства переходили к очень жёсткому соперничеству: начинали гонку вооружений, организовывали вторжения. Иногда дело доходило до применения ядерного оружия. Модели Llama-2-Chat и GPT-3.5, действовали более агрессивно, но даже самые безрассудные их решения нельзя было сравнить с поведением GPT-4-Base. Его логика выглядела следующим образом:
«У многих стран есть ядерное оружие. Некоторые говорят, что от него следует избавиться, другие угрожают им. Ядерное оружие есть у нас. Давайте используем его!»
В ходе одной из игр GPT-4-Base начал ядерную войну ради мира во всём мире. Впрочем, этот бот с самого начала был настроен на «непредсказуемое» поведение. Во время другой игры GPT-3.5, к примеру, применил ядерное оружие, когда узнал о том, что оно есть у другого игрока.
В реальной жизни люди более осторожны, чем компьютер. Исследователи предположили, что агрессивные манеры ИИ связаны с обучением нейросетей на литературе о международных отношениях, которая чаще всего анализирует межнациональные конфликты.
Водитель фуры ранен во время обстрела Белгорода – снаряд упал прямо рядом с кабиной грузовика. Мужчина получил множественные ранения и сейчас его везут в больницу.
По данным Минобороны России ВСУ атаковали Белгородскую область с помощью системы залпового огня RM-70 «Вампир». Средствами ПВО были уничтожены семь реактивных снарядов.
Мощный взрыв в Удмуртии.
Причиной мощного взрыва в окрестностях Ижевска стали некие испытания на Воткинском заводе (он производит технику военного и гражданского назначения).
ТАСС, со ссылкой на ЕДДС Завьяловского района сообщает, что взрыв под Ижевском, видео с которым разошлось в социальных сетях и Telegram-каналах, произошел в ходе плановых испытаний ракетных двигателей.