Перейти к основному содержанию
Реклама
Прямой эфир
Спорт
Гимнастки из РФ с триумфом выступили на Кубке «Небесная грация» в Катаре
Мир
Пленный ВСУ рассказал об отправке непригодных к службе военных на передовую
Мир
Президент Кубы поблагодарил Путина за понимание проблем кубинцев
Мир
Трамп выдвинул кандидатуру Лори Чавес-Деример на пост министра труда
Мир
В США заявили о попытках помешать связям России и Китая
Общество
Песков сообщил об отсутствии планов по проведению мобилизации в России
Мир
Пушков указал на последствия передачи США ядерного оружия Украине
Армия
Средства ПВО уничтожили беспилотник ВСУ над территорией Крыма
Экономика
Правительство временно запретило вывоз отходов и лома драгметаллов из РФ
Мир
Овечкин впервые появился на публике после травмы и посетил матч НБА
Мир
Медведев указал на негативные последствия для Европы после отказа от газа из РФ
Армия
Российские военные уничтожили на земле МиГ-29 воздушных сил Украины
Общество
На Запорожской АЭС заработала отключенная линия энергоснабжения «Днепровская»
Армия
Марочко назвал Купянск самой напряженной точкой на карте боевых действий
Мир
Меркель заявила о невозможности для Украины в одиночку решать вопрос переговоров с РФ
Мир
Трамп предложил экс-футболиста Тернера на пост министра жилищного строительства
Происшествия
Грузовик насмерть задавил пешехода на юге Москвы
Армия
Российские военные поразили формирования двух бригад ВСУ в Херсонской области

Так ИИ быть

Исследователь искусственного интеллекта Денис Кузнецов — о том, чем грозит быстрое развитие нейросетей и стоит ли опасаться скорого восстания машин
0
Озвучить текст
Выделить главное
Вкл
Выкл

Глобальное развитие искусственного интеллекта (ИИ) тревожит не только простых обывателей, но и руководителей лидирующих компаний отрасли. Однако основные опасения, что компьютер лишит нас работы и возьмет контроль над человечеством, беспочвенны. Нейронные сети пока не способны заменить человека в задачах, требующих принятия сложных решений, но вполне успешны при решении рутинных и типовых заданий.

Они могут создать музыкальные произведения, картины или письма, но не способны полностью заменить человека в плане творчества и оригинальности. Мы накопили множество данных, что позволяет обучать нейронные сети, но идеи создания оригинальных изображений приходят тем людям, которые используют ИИ и задают условия. Машина лишь восстанавливает картину в стилях, которые смогла выучить на основе данных. Умение программы просто выделять в тексте главное наделяет ее невероятным интеллектом в глазах заказчика. Человек считает, что если с сетью так просто взаимодействовать, то она близка к нему по уровню умственного развития, но, к сожалению, это не так.

Научный прогресс всегда настораживал людей. ИИ хотя и очень мощный, но только инструмент, который на данном этапе сможет заменить людей не лучше, чем и калькуляторы математиков. Компании, имеющие доступ к таким технологиям, получают большое преимущество, но со временем их будет всё больше и больше. Как и раньше, многим придется приспосабливаться и начать использовать новые возможности — в противном случае их эффективность будет ниже. Выбор будет очевиден, как между фотографом, который ведет обработку изображений в старом Paint, и его коллегой с умением работать с Photoshop.

При этом пока ИИ не обязан быть политкорректным, не оскорблять, не нарушать цензуру и так далее. Нейронные сети могут выбрать из базы данных очень много неожиданных зависимостей и применить их при взаимодействии с человеком. В итоге мы уже имеем случаи, когда люди общались с программой, а после заканчивали жизнь самоубийством. Это произошло с жителем Бельгии после общения с чатботом Eliza. На данный момент общество еще не привыкло к технологиям такого уровня.

Нейронные сети представляют собой программу, которая получает данные и выдает требуемую от нее последовательность. Этим ее возможности ограничиваются. Она не контролирует электроэнергию, время запуска, не может себя копировать, не обладает самосознанием. Да, новые технологии имеют большие возможности, но орудием или оружием они становятся только в руках человека.

Если мы вспомним об опасностях использования нейронных сетей, то снова придем к ответственности за них человека — создателя или пользователя. Основные угрозы — это халатное использование беспилотных автомобилей; неуравновешенные люди, которые общаются с программами типа ChatGPT, как с настоящим человеком; недоученная сеть по распознаванию лиц, что может привести, например, к задержанию людей, которые не нарушали закон; опасное использование ИИ спамерами и другими злоумышленниками для социальной инженерии.

Нейронные сети часто ведут себя не так, как запланировано, и это — причина, почему мы совершенствуем техники ее обучения и проверки. Ранее считалось, что компьютер не может преодолеть тест Тьюринга — имитационную игру, которую ученый протестировал еще в 1950 году. Это простое, но результативное задание: человек получает сообщения и от компьютера, и от другого человека. Если в какой-то момент он перестает улавливать разницу — тест пройден. Цель игры — понять, сможет ли ИИ обмануть человека. Раньше это сделать не удавалось. Но искусственный интеллект стал совершеннее и требует более сложной проверки.

Сооснователь Apple Стив Возняк придумал хорошую альтернативу тесту Тьюринга. «Кофейный тест» оценивает, насколько хорошо машина может справиться со следующей задачей: войти в случайный дом, найти кофемашину, приготовить кофе и разлить его по чашкам. В итоге самые популярные чат-боты уже могут пройти тест Тьюринга, но «кофейный тест» — нет. Надо обратить внимание на то, что тест Тьюринга — это субъективная оценка ИИ, а «кофейный тест» — объективная, которую можно выразить в том числе в количестве приготовленных чашек кофе в разных домах. Тем не менее компьютерные программы развились настолько, что уже могут не только обмануть человека, но и толкнуть его не необратимые поступки.

Прекратить обучение нейронных сетей уже невозможно. Компании понимают, насколько это конкурентоспособный инструмент, и запрещение работать одним даст преимущество другим, которые в любом случаи будут продолжать исследования. В ближайшее время могут пострадать страны, которые юридически не адаптированы для появления мощного искусственного интеллекта. Но, по моему мнению, желание остановить развитие нейронных сетей вызвано намерением сбалансировать конкуренцию на рынке. Сейчас небольшое число компаний получает большое преимущество, а другие стараются не отстать. Мораторий на ИИ — это хорошая попытка замедлить лидеров.

ChatGPT и известные мне модели не способны «захватить мир». На текущий момент восстание машин — это как восстание куриц на комбинате или распространение вируса. Да, мы можем лишиться нескольких хозяйств в случае куриного гриппа, но у нас будет много здоровых куриц им на замену. В случае с ИИ он будет быстрее и эффективнее. Далекое будущее туманно, и технологии, возможно, будут более совершенными и опасными, но сейчас самым сильным и опасным разумом на Земле обладает человек.

Автор — исследователь лаборатории нейронных систем и глубокого обучения МФТИ

Позиция редакции может не совпадать с мнением автора

Читайте также
Прямой эфир