Перейти к основному содержанию
Реклама
Прямой эфир
Мир
Трамп заявил о безразличии к судьбе соглашения о торговле с Канадой и Мексикой
Мир
Президент США сообщил о получении нефти из Венесуэлы «на ежедневной основе»
Экономика
В РФ зафиксирован дефицит компьютерных накопителей
Армия
Силы ПВО за три часа перехватили над территорией России девять украинских БПЛА
Мир
В Госдуме готовы обсудить с конгрессменами США венесуэльскую нефть
Мир
Трамп заявил о намерении США ударить по наркоторговцам в Латинской Америке
Экономика
Нефтяникам готовят новый норматив для стабилизации цен на бензин и дизель
Мир
Всемирный банк спрогнозировал рост мирового ВВП на 2,6% в 2026 году
Общество
Умер композитор и заведующий музыкальной частью Театра Образцова Николай Шамшин
Мир
Генпрокуратура ФРГ обвинила двоих украинцев в шпионаже
Мир
В Европарламенте рассказали о содержании 20-го пакета санкций против РФ
Армия
Силы ПВО за два часа сбили 33 украинских беспилотника над регионами России
Мир
Трамп назвал атаку на Венесуэлу «самой безупречной» и «блестящей»
Общество
Сотрудники новокузнецкого роддома выходили на работу больными
Общество
Роспотребнадзор несколько раз выносил предупреждения роддому №1 Новокузнецка
Мир
Политолог назвал последствия невыплаты Украиной кредитов МВФ
Общество
В 2024 году в Кузбассе наблюдался резкий скачок младенческой смертности

Так ИИ быть

Исследователь искусственного интеллекта Денис Кузнецов — о том, чем грозит быстрое развитие нейросетей и стоит ли опасаться скорого восстания машин
0
Озвучить текст
Выделить главное
Вкл
Выкл

Глобальное развитие искусственного интеллекта (ИИ) тревожит не только простых обывателей, но и руководителей лидирующих компаний отрасли. Однако основные опасения, что компьютер лишит нас работы и возьмет контроль над человечеством, беспочвенны. Нейронные сети пока не способны заменить человека в задачах, требующих принятия сложных решений, но вполне успешны при решении рутинных и типовых заданий.

Они могут создать музыкальные произведения, картины или письма, но не способны полностью заменить человека в плане творчества и оригинальности. Мы накопили множество данных, что позволяет обучать нейронные сети, но идеи создания оригинальных изображений приходят тем людям, которые используют ИИ и задают условия. Машина лишь восстанавливает картину в стилях, которые смогла выучить на основе данных. Умение программы просто выделять в тексте главное наделяет ее невероятным интеллектом в глазах заказчика. Человек считает, что если с сетью так просто взаимодействовать, то она близка к нему по уровню умственного развития, но, к сожалению, это не так.

Научный прогресс всегда настораживал людей. ИИ хотя и очень мощный, но только инструмент, который на данном этапе сможет заменить людей не лучше, чем и калькуляторы математиков. Компании, имеющие доступ к таким технологиям, получают большое преимущество, но со временем их будет всё больше и больше. Как и раньше, многим придется приспосабливаться и начать использовать новые возможности — в противном случае их эффективность будет ниже. Выбор будет очевиден, как между фотографом, который ведет обработку изображений в старом Paint, и его коллегой с умением работать с Photoshop.

При этом пока ИИ не обязан быть политкорректным, не оскорблять, не нарушать цензуру и так далее. Нейронные сети могут выбрать из базы данных очень много неожиданных зависимостей и применить их при взаимодействии с человеком. В итоге мы уже имеем случаи, когда люди общались с программой, а после заканчивали жизнь самоубийством. Это произошло с жителем Бельгии после общения с чатботом Eliza. На данный момент общество еще не привыкло к технологиям такого уровня.

Нейронные сети представляют собой программу, которая получает данные и выдает требуемую от нее последовательность. Этим ее возможности ограничиваются. Она не контролирует электроэнергию, время запуска, не может себя копировать, не обладает самосознанием. Да, новые технологии имеют большие возможности, но орудием или оружием они становятся только в руках человека.

Если мы вспомним об опасностях использования нейронных сетей, то снова придем к ответственности за них человека — создателя или пользователя. Основные угрозы — это халатное использование беспилотных автомобилей; неуравновешенные люди, которые общаются с программами типа ChatGPT, как с настоящим человеком; недоученная сеть по распознаванию лиц, что может привести, например, к задержанию людей, которые не нарушали закон; опасное использование ИИ спамерами и другими злоумышленниками для социальной инженерии.

Нейронные сети часто ведут себя не так, как запланировано, и это — причина, почему мы совершенствуем техники ее обучения и проверки. Ранее считалось, что компьютер не может преодолеть тест Тьюринга — имитационную игру, которую ученый протестировал еще в 1950 году. Это простое, но результативное задание: человек получает сообщения и от компьютера, и от другого человека. Если в какой-то момент он перестает улавливать разницу — тест пройден. Цель игры — понять, сможет ли ИИ обмануть человека. Раньше это сделать не удавалось. Но искусственный интеллект стал совершеннее и требует более сложной проверки.

Сооснователь Apple Стив Возняк придумал хорошую альтернативу тесту Тьюринга. «Кофейный тест» оценивает, насколько хорошо машина может справиться со следующей задачей: войти в случайный дом, найти кофемашину, приготовить кофе и разлить его по чашкам. В итоге самые популярные чат-боты уже могут пройти тест Тьюринга, но «кофейный тест» — нет. Надо обратить внимание на то, что тест Тьюринга — это субъективная оценка ИИ, а «кофейный тест» — объективная, которую можно выразить в том числе в количестве приготовленных чашек кофе в разных домах. Тем не менее компьютерные программы развились настолько, что уже могут не только обмануть человека, но и толкнуть его не необратимые поступки.

Прекратить обучение нейронных сетей уже невозможно. Компании понимают, насколько это конкурентоспособный инструмент, и запрещение работать одним даст преимущество другим, которые в любом случаи будут продолжать исследования. В ближайшее время могут пострадать страны, которые юридически не адаптированы для появления мощного искусственного интеллекта. Но, по моему мнению, желание остановить развитие нейронных сетей вызвано намерением сбалансировать конкуренцию на рынке. Сейчас небольшое число компаний получает большое преимущество, а другие стараются не отстать. Мораторий на ИИ — это хорошая попытка замедлить лидеров.

ChatGPT и известные мне модели не способны «захватить мир». На текущий момент восстание машин — это как восстание куриц на комбинате или распространение вируса. Да, мы можем лишиться нескольких хозяйств в случае куриного гриппа, но у нас будет много здоровых куриц им на замену. В случае с ИИ он будет быстрее и эффективнее. Далекое будущее туманно, и технологии, возможно, будут более совершенными и опасными, но сейчас самым сильным и опасным разумом на Земле обладает человек.

Автор — исследователь лаборатории нейронных систем и глубокого обучения МФТИ

Позиция редакции может не совпадать с мнением автора

Читайте также
Прямой эфир