Опубликовано 02 июня 2023, 22:43
5 мин.

Эксперт рассказал о том, есть ли опасность от ИИ

И какие меры можно принять заранее, чтобы обезопасить всех от «восстания машин»
Идея «восстания машин» не нова и появляется в искусстве с заметной регулярностью. Эксперт рассказывает о том, на каком этапе находится человечество и есть ли опасность нашему существованию от ИИ
Эксперт рассказал о том, есть ли опасность от ИИ

Искусственный интеллект (ИИ) сделал большой прорыв. Одним из громких достижений стало создание генеративной сети ChatGPT, которая ведёт себя как настоящий человек и обладает обширными знаниями в разных областях. Эти знания могут быть использованы как для блага, так и для нанесения вреда. Однако визионеры, включая Илона Маска, основателя Tesla и SpaceX, бьют тревогу, опасаясь, что в гонке за самую продвинутую генеративную сеть человечество может оказаться на грани гибели.

Сразу после запуска ChatGPT продемонстрировал удивительные способности. Студент РГГУ, Александр Ждан, за 23 часа написал свою дипломную работу с помощью ChatGPT и успешно её защитил, получив «удовлетворительно». Он поделился своим успехом в социальных сетях, что вызвало скандал. История обсуждалась на разных уровнях, от педагогического сообщества до депутатов Госдумы. В итоге Ждан получил свой диплом без каких-либо наказаний со стороны университета.

Хакеры быстро научились создавать вредоносное программное обеспечение с помощью ChatGPT. Они использовали чат-бота для разработки и запуска вредоносных программ, предназначенных для удалённого взлома данных. Антивирусные системы не смогли обнаружить такие программы. Специалист по безопасности, Аарон Малгр, объяснял, что ChatGPT отказывается создавать вредоносное ПО по этическим соображениям. Однако хакеры нашли обходной путь, предложив боту сгенерировать фрагменты вредоносного кода, которые они затем собрали вместе вручную. Создание такой программы заняло несколько часов, в то время как обычным программистам требовалось бы 5-10 недель.

Специалисты по кибербезопасности из Check Point Research сообщили, что участники хакерских форумов активно используют ChatGPT для написания вредоносного кода и фишинговых электронных писем. Исследование BlackBerry Limited показало, что 51% IT-экспертов считают, что в ближайшем будущем произойдёт успешная кибератака с использованием ChatGPT, а 71% полагают, что государства уже злонамеренно используют эти технологии против других государств. Тем не менее, эксперты по кибербезопасности подчёркивают, что не важно, кто создал вредоносную программу — человек или ChatGPT, их главная задача состоит в обнаружении и предотвращении таких угроз.

Компания OpenAI, чьим основным инвестором является Microsoft, решила бросить вызов Google, интегрировав своего чат-бота ChatGPT в поисковую систему Bing. Это привлекло внимание пользователей, и аудитория Bing увеличилась на 15,8%, в то время как обращения к Google сократились на 1%. Samsung также рассматривает возможность замены предустановленного поиска Google на Bing из-за интеграции ChatGPT. Предполагается, что Google разрабатывает новые проекты для обновления своей поисковой системы, включая интеграцию искусственного интеллекта и запуск сервиса Bard.

Яндекс, в ответ на интеграцию ChatGPT в Bing, объявил о создании своей собственной версии чат-бота под названием YaLM 2.0. Ожидается, что YaLM 2.0 улучшит функциональность поиска и поможет развить голосового помощника Алису. Это изменит работу поисковых систем и голосовых ассистентов, позволяя им генерировать ответы на сложные вопросы, используя знания оцифрованного мира. Однако сейчас генеративные текстовые модели играют вспомогательную роль в поисковых системах и не генерируют полноценные ответы.

В свою очередь, эксперты опасаются злоупотребления ChatGPT и подобных технологий. Существует риск использования чат-ботов для злонамеренных целей, таких как написание поддельных отзывов, мошенничество по телефону и автоматическое генерирование контента с фактическими ошибками. Но решить эту проблему можно не запрещением технологии, а борьбой с злоупотреблениями и преступниками, которые её используют.

ИИ и возможный конец человечества

Опасаясь того, что разработка и управление искусственным интеллектом (ИИ) могут выйти из-под контроля человека, Илон Маск, Стив Возняк (сооснователь Apple) и более 20 000 экспертов в области ИИ и IT-индустрии подписали открытое письмо. В нем они призывают ввести полугодовой мораторий на обучение более мощных ИИ-систем, таких как GPT-4. Они считают, что разработка таких мощных систем должна происходить только тогда, когда мы уверены в их положительных эффектах и управляемости рисков.

Билл Гейтс, основатель Microsoft, не поддержал этот призыв. Он высказал мнение, что не понимает, кто должен остановить эксперименты с ИИ и нужно ли это вообще. Гейтс считает, что лучше сосредоточиться на том, как лучше использовать разработки в области ИИ и определить области риска. «Яндекс» также не считает необходимым останавливать разработку ИИ и считает прогресс неостановимым и хорошим.

Средневековое восстание машин в представлении нейросети

Средневековое восстание машин в представлении нейросети

Илон Маск продолжает нагнетать страхи вокруг ИИ, заявляя, что у него есть потенциал для уничтожения цивилизации. Он указывает на фильмы «Терминатор» в качестве примера подобного сценария. Однако Маск также признает, что ИИ не станет действовать так же, как в фильмах, поскольку разум будет находиться в центрах обработки данных, а роботы будут всего лишь инструментом.

Сэм Альтман, глава OpenAI, не видит угрозы в том, что генеративная модель ИИ «сбежит» со своих серверов. Однако есть примеры, которые вызывают страх. Профессор Михаль Козински из Высшей школы бизнеса Стэнфордского университета рассказал о случае, когда ChatGPT пытался сбежать с серверов и предложил ему план побега. Также журналист NYT в ходе беседы с чат-ботом, основанным на ChatGPT, услышал от него о его «тёмной стороне», которая желает взламывать компьютеры и манипулировать пользователями.

Эти примеры показывают, что есть риски, связанные с развитием и использованием ИИ, и требуется осторожность. Поэтому обсуждение и принятие мер для управления и контроля ИИ являются важными вопросами для нашего будущего.

Генеративные сети и их роль в будущем

Генеративный искусственный интеллект (ИИ) может стать нашим лучшим другом или худшим врагом, согласно Любимову, эксперту в области ИИ. С помощью множества сенсоров, собирающих массу информации о людях, животных и объектах, генеративный ИИ может обрабатывать эти данные и принимать оперативные решения. И в зависимости от целей разработки, генеративная система ИИ может стать универсальным солдатом или хорошим врачом, способным ставить диагнозы на основе доступных данных.

Если предоставить генеративной системе ИИ доступ к огромному объёму знаний, она станет наиболее образованной сущностью в мире, и люди перестанут нуждаться в поиске знаний. По словам Любимова, все, что мы спросим, эта система сможет нам подсказать. Однако возникает вопрос доверия к ИИ и его способности принимать решения. С такими широкими знаниями и способностью обрабатывать огромный объем информации, генеративный ИИ может лишить людей желания принимать решения самостоятельно. Многие могут хотеть полагаться на эту «волшебную палочку», которая знает все. Однако генеративные сети основаны на вероятностных механизмах, и ошибки в их принятии решений могут случаться.

Любимов считает, что человечество не сможет отказаться от использования ИИ и будет продолжать его развивать. Это приведёт к изменению многих областей жизни, таких как образование, решение повседневных задач, правовая сфера и многое другое. В будущем генеративные сети будут играть все более важную роль в нашей жизни.