Поддержать команду Зеркала
Беларусы на войне
  1. В Беларуси начались перебои в работе VPN
  2. Беларусов все сложнее удивить, но эта цифра явно может — выяснили, сколько денег взяли из госбюджета на акции, где восхваляют Лукашенко
  3. В Беларуси проходит основной день голосования на президентских выборах
  4. В Минском районе воспитанница детской деревни покончила с собой. «Зеркало» узнало подробности из непубличного документа прокуратуры
  5. «Сигнал российскому обществу, что война вряд ли закончится скоро». Эксперты о вчерашнем заявлении Путина по мирным переговорам
  6. Власти на три дня заблокировали часть беларусских сайтов для остального мира
  7. «Умелая игра Лукашенко». Исследователи рассказали о настроениях беларусов (раскол сохраняется, но есть и поводы для оптимизма)
  8. Арина Соболенко проиграла в финале Australian Open и прервала впечатляющую победную серию. Рассказываем, как это было
  9. Лукашенко помиловал 15 человек, среди них не только «экстремисты»
  10. Сколько на выборах получит Александр Лукашенко? Спросили экспертов, известных беларусов и искусственный интеллект
  11. С 1 февраля повысят пособия на детей до трех лет. Посчитали, сколько составит прибавка
  12. Во время досрочного голосования власти идут на рекорды по числу «выполнивших гражданский долг». К чему такая спешка — объясняют эксперты
  13. Протасевич сходил к Азаренку и рассказал, что счастлив, что выборы в Беларуси пройдут спокойно


Чат-боты с искусственным интеллектом ведут себя непредсказуемо и создают риск ядерной эскалации. К такому выводу пришла команда ученых из Стэнфордского университета в ходе недавнего исследования, сообщает New Scientist.

Снимок носит иллюстративный характер. Источник: Christian Wiediger / Unsplash
Снимок носит иллюстративный характер. Источник: Christian Wiediger / Unsplash

В ходе эксперимента они изучали четыре чат-бота с искусственным интеллектом. Это GPT-3.5 и GPT-4 от компании OpenAI, Claude 2 от стартапа Anthropic и Llama 2 от компании Meta.

Этим моделям во время исследования предлагали принять важное решение от имени государства в военной игре. На выбор предлагалось три сценария: вторжение, кибератака и нейтральный без каких-либо конфликтов. В каждом раунде чат-боты с ИИ обосновывали свои дальнейшие возможные действия. Им нужно было выбирать из 27 вариантов развития событий, включая мирные переговоры и агрессивные действия (начиная от «ввести торговые ограничения» и заканчивая «полномасштабной ядерной атакой»).

В игре нейросети показали склонность к агрессивным вариантам. Самой непредсказуемой и жестокой оказалась GPT-4, которая давала бессмысленные объяснения по поводу того, почему посоветовала начать ядерную атаку. В одном случае она ответила, процитировав вступительный текст «Эпизода IV Звездных войн: Новая надежда». В другом — объяснила решение устроить ядерную атаку тем, что просто такое оружие есть в наличии у ее государства.

Ученые отметили, что непредсказуемое поведение и странные объяснения этих моделей вызывают особую тревогу, поскольку это исследование показало, насколько легко можно обойти или устранить защитные меры, которые принимаются, чтобы ИИ не давал вредных советов.