Опубликовано 11 марта 2024, 17:39
3 мин.

Эксперт: у ИИ есть сдерживающие факторы, но их можно преодолеть

Но каковы риски
Владимир Васильев, исследователь данных, академический руководитель онлайн-магистратуры Skillfactory и ТГУ «Анализ естественного языка в лингвистике и IT», поделился своим видением будущего искусственного интеллекта (ИИ). Вопреки слухам об универсальной замене всего и всех, Васильев выделяет несколько ограничивающих факторов, которые сталкиваются с развитием ИИ.
Эксперт: у ИИ есть сдерживающие факторы, но их можно преодолеть

© Ferra.ru

Первым важным аспектом является ограничение логического мышления у моделей. Даже самые передовые языковые модели, такие как GPT, пока лишь помогают специалистам, но не заменяют их полностью. Возможность логического и критического мышления пока остается человеческой привилегией.

Сейчас самые продвинутые большие языковые модели представляют из себя помощников для специалистов в своих областях. Как правило, даже самые продвинутые большие языковые модели, обученные под решение прикладных специфических задач, помогают, но не заменяют человека на его месте работы. В текущий момент модели не способны логически мыслить. Они не способны критически относиться к той информации, которую они выдают пользователю GPT-модели.

Владимир Васильев
Исследователь данных, академический руководитель онлайн-магистратуры Skillfactory и ТГУ «Анализ естественного языка в лингвистике и IT»

Проблема неконтролируемой генерации — второй важный аспект. Решение ее требует длительного и дорогостоящего обучения модели. Необходимость минимизации ошибок делает сложным внедрение моделей в бизнес-процессы, особенно в медицинских и юридических областях.

Это распространенная проблема трансформерной архитектуры GPT-подобных моделей. Эта проблема может решаться до обучением модели при определенном подходе, однако дообучать огромную модель «на стероидах» с миллиардами параметров долго и дорого. К сожалению, они пока не могут в полной мере быть внедрены в прикладные бизнес-процессы, потому что там высока цена ошибки. Мы не можем допустить, что в медицинском приложении или юридическом сервисе модель будет давать ложную информацию.

Владимир Васильев
Исследователь данных, академический руководитель онлайн-магистратуры Skillfactory и ТГУ «Анализ естественного языка в лингвистике и IT»

Технологические ограничения включают ограничение по числу символов ввода, проблемы инфраструктуры и высокую стоимость оборудования. Доступность технологий остается неравномерной, создавая этические и правовые риски.

Васильев также отметил нехватку вычислительных ресурсов и монополию в производстве чипов. Это создает неравенство в доступе к технологиям и привилегии на рынке.

Есть довольно ограниченный круг компаний, которые разрабатывают железо для исполнения и обучения моделей. Здесь также существует монополия и когда есть недостаток железа и при этом есть технологические гиганты с огромными бюджетами на это железо, разработка становится дорогой и еще более эксклюзивной. Это создает прецедент неравномерного доступа к технологиям и получение привилегий на рынке со стороны одних компаний над другими. С одной стороны нужно более широкое распространение технологий среди всех участников рынка, с другой требуется правовое регулирование, потому что создается неравномерный баланс технологических сил.

Владимир Васильев
Исследователь данных, академический руководитель онлайн-магистратуры Skillfactory и ТГУ «Анализ естественного языка в лингвистике и IT»

В будущем возможен сценарий, когда модели станут неотъемлемой частью принятия решений. Это может привести к психологическому эффекту, когда люди будут склонны следовать рекомендациям моделей, даже если они расходятся с собственными убеждениями. Это поднимает этический вопрос о последствиях ошибок моделей, которые могут привести к серьезным последствиям в производстве и других сферах.

Люди могут начать принимать решения, опираясь на рекомендации моделей, и скорее всего будут следовать им, даже если сами пришли к другому выводу. Эти модели могут казаться «незаменимыми» помощниками, поскольку люди привыкнут получать верные ответы на множество вопросов. Возможен и психологический эффект, когда люди будут считать, что решения, которые принимают модели, совпали бы с тем, что они бы сделали сами.

Владимир Васильев
Исследователь данных, академический руководитель онлайн-магистратуры Skillfactory и ТГУ «Анализ естественного языка в лингвистике и IT»

Вопрос о возможной остановке развития ИИ также неизбежно возникает. Васильев предупреждает, что регулирование станет необходимым, особенно при приближении к созданию ИИ, превосходящего биологический интеллект. Возможны ограничения, направленные на предотвращение угрозы для человечества.

В какой-то момент развитие ИИ действительно может быть искусственно заторможено, если мы поймем, что риски, которые материализуются в связи с развитием ИИ, неуправляемы и могут нести реальную угрозу самому существованию человечества.

Владимир Васильев
Исследователь данных, академический руководитель онлайн-магистратуры Skillfactory и ТГУ «Анализ естественного языка в лингвистике и IT»

Таким образом, развитие искусственного интеллекта сталкивается с рядом вызовов, требующих внимания и баланса между технологическими возможностями и этическими рисками.