Перейти к основному содержанию
Реклама
Прямой эфир
Мир
Визит Гросси на Запорожскую АЭС должен состояться 29 марта
Спорт
Карпин раскритиковал игру сборной России в первом тайме матча против Ирака
Происшествия
Четыре человека пострадали в Екатеринбурге в ДТП с каретой скорой помощи
Мир
Нетаньяху снял с должности министра обороны Израиля
Мир
США не станут сокращать присутствие в Сирии после ударов по своим базам
Мир
Посольство РФ в Италии обвинило местную газету в разжигании русофобии
Происшествия
Житель Донецка пострадал от взрыва противопехотной мины «Лепесток»
Мир
В Польше высказали опасения из-за передачи Россией ТЯО Белоруссии
Происшествия
Больница и газопровод повреждены после обстрела Лисичанска со стороны ВСУ
Спорт
Сборная России по футболу обыграла команду Ирака в товарищеском матче
Мир
Байден не смог найти выход со сцены после выступления в Оттаве
Спорт
Боец Шлеменко выразил уверенность в победе Дацика над Джонсоном
Происшествия
Машина после ДТП врезалась в остановку с людьми на западе Москвы

Машина на обучении

Лингвист Борис Орехов — о скандале с дипломом от нейросети и о том, надо ли теперь закрывать вузы
0
Озвучить текст
Выделить главное
вкл
выкл

В газетах и на новостных сайтах опять скандальная новость про искусственный интеллект. К инфоповодам, что нейросети научились делать еще что-то, чего раньше не умели, все должны были уже привыкнуть. За последнюю пару лет нам сообщали, что компьютеры изобрели свой собственный язык, после чего их пришлось от греха подальше отключить. И что инженер компании Google сошел с ума (или нет?) и увидел признаки разумности в созданной корпорацией программе.

Но на этот раз новость касается не абстрактного будущего, в котором машины (возможно) поработят человечество, а самого практического настоящего. Искусственный интеллект написал за студента дипломную работу, и тот на защите получил крепкую тройку. Так нужно ли вообще теперь отправлять детей в университет и вставать утром к первой паре?

Минимальный контекст произошедшего таков. Известная своими передовыми разработками компания OpenAI в начале декабря представила новую технологию под названием ChatGPT, сразу же ставшую объектом внимания в соцсетях. Как следует из названия, технология эта способна общаться с пользователем в режиме чата, то есть давать ответы на вопросы, заданные на простом человеческом языке. Делает она это очень прилично, в разы лучше, чем аналогичные нейросети предыдущего поколения, даже основанные на том же принципе, так называемой архитектуре трансформер. Буква T в аббревиатуре GPT как раз и значит «трансформеры», которые совершили несколько лет назад настоящую революцию в текстопорождении, сумев вывести его на такой уровень, где компьютерный текст уже с некоторым трудом можно отличить от человеческого.

ChatGPT умеет не только разговаривать как человек, но и писать программный код, исправлять ошибки, делать резюме текста. Словом, нейросеть начинает конкурировать с человеком в ряде сфер уже не просто подсобной, а по-настоящему интеллектуальной деятельности.

Кстати, очень странно после истории с поддельным дипломом звучат предложения ограничить в вузах доступ к ChatGPT. Во-первых, прогресс не остановить, и закрыться от новых технологий не получится — как Японии не удалось остаться в самурайском средневековье. А во-вторых, доступ к ChatGPT уже ограничен для всей России, сделали это сами OpenAI почти сразу после релиза нейросети. По воле разработчиков зарегистрироваться на их сайте российские пользователи не могут.

Как работают такие нейросети? В процессе тренировки они «прочитывают» огромное количество текстов — по сути, весь интернет — и выучивают вероятности следования слов друг за другом. На основе этих вероятностей искусственный интеллект весьма сносно имитирует человеческую речь, которая и в самом деле порой кажется разумной. Но разумность эту не стоит преувеличивать, потому что нейросеть ничего не знает о мире вокруг. Ее легко поймать на фактической ошибке. Например, мне ChatGPT однажды сообщила, что Лев Толстой написал «Отцы и дети».

Из отличительных особенностей именно ChatGPT, по сравнению с предшественниками, — предельное внимание к этике. Если начать задавать нейросети вопросы, связанные с насилием или некорректным поведением, затрагивающим чьи-нибудь чувства, ChatGPT ответит, что делать так нехорошо, и постарается убедить собеседника поступать правильно.

Кстати, об этике. Прав ли был студент, защитивший диплом, написанный не им? Разумеется, он пошел на обман. Дипломная работа предполагает самостоятельный труд, демонстрирующий полученные в вузе умения. Это не только поиск информации, но и ее осмысление. Проникнуть в голову к студенту, чтобы понять, насколько он разобрался в материале, невозможно. Поэтому преподаватели пользуются текстами учеников как критерием оценки их знаний: «Порядок в буквах означает порядок в голове». Если текст написан несамостоятельно, то и оценить уровень студента таким способом нельзя. Так что нет разницы, написан твой диплом другим человеком за деньги или искусственным интеллектом бесплатно. Он ничего не говорит о главном — насколько хорошо ты усвоил то, чему тебя учили.

В вузах уже давно проверяют курсовые и дипломы на плагиат. Но это формальный подход, оценивающий оригинальность текста, а не оригинальность высказанной в нем мысли. При этом мысль важнее. А вот как раз оригинальных мыслей у ChatGPT нет. В этом плане искусственный интеллект выдает всегда что-то банальное, среднеарифметическое от прочитанного для тренировки. Это, кстати, видно и по стихам, которые сочиняет ChatGPT. Там выходит что-то вроде «розы красные, небо голубое».

Что теперь делать преподавателям, чтобы не попасться на уловку студента? Прежде всего, вкладывать в процесс больше усилий и изобретательности. В скандальной истории про диплом тема, одобренная научным руководителем, выглядит очень общо, абстрактно. Нужно придумывать для студентов такие задания, с которыми ChatGPT не справится даже на тройку. Победить нейросети интеллектуально человек всё еще способен, что показывает приведенный выше пример про «роман» Толстого.

Так что закрывать вузы пока рано. Нужно помнить, что хотя компьютер и научился писать тексты, он всё еще не может за нас думать, поэтому машина избавляет только от рутины, но не от профессии.

Автор — кандидат филологических наук, академический руководитель магистерской программы «Цифровые методы в гуманитарных науках» НИУ ВШЭ

Позиция редакции может не совпадать с мнением автора

Читайте также
Реклама
Прямой эфир