Перейти к основному содержанию
Реклама
Прямой эфир
Мир
Al Arabiya сообщил о нанесении ВС США 35 ударов по ИГ в Сирии
Мир
Президент Словакии подтвердил отказ страны от военной помощи Украине
Мир
Посол РФ в Венесуэле сообщил о сбоях связи на станциях ПВО во время атаки США
Мир
США показали видео массированных ударов по позициям ИГ в Сирии
Политика
В «Единой России» рассказали о приоритетных целях на весеннюю сессию Госдумы – 2026
Мир
Fox News сообщил о нанесении США ударов по ИГ в Сирии
Армия
Средства ПВО за три часа уничтожили 33 БПЛА ВСУ над регионами России
Мир
Трамп подписал указ о защите в США доходов от венесуэльской нефти
Спорт
ХК «Бостон» одержал победу над ХК «Рейнджерс» в матче НХЛ со счетом 10:2
Мир
В Британии в 2025 году зафиксирован рекордный рост продаж Библий
Мир
Рубио объяснил выход США из международных организаций
Мир
WSJ узнала об обсуждениях в США возможного удара по Ирану
Мир
Forbes сообщил об утечке данных 17,5 млн аккаунтов Instagram
Мир
Трамп прокомментировал стремление к свободе в Иране
Мир
Глава минобороны Бельгии признал неготовность страны к войне будущего
Мир
В Нобелевском комитете заявили о невозможности передачи премии мира другому лицу
Мир
Во французском Бассенсе на фоне соглашения ЕС с MERCOSUR произошли столкновения

Машина на обучении

Лингвист Борис Орехов — о скандале с дипломом от нейросети и о том, надо ли теперь закрывать вузы
0
Озвучить текст
Выделить главное
Вкл
Выкл

В газетах и на новостных сайтах опять скандальная новость про искусственный интеллект. К инфоповодам, что нейросети научились делать еще что-то, чего раньше не умели, все должны были уже привыкнуть. За последнюю пару лет нам сообщали, что компьютеры изобрели свой собственный язык, после чего их пришлось от греха подальше отключить. И что инженер компании Google сошел с ума (или нет?) и увидел признаки разумности в созданной корпорацией программе.

Но на этот раз новость касается не абстрактного будущего, в котором машины (возможно) поработят человечество, а самого практического настоящего. Искусственный интеллект написал за студента дипломную работу, и тот на защите получил крепкую тройку. Так нужно ли вообще теперь отправлять детей в университет и вставать утром к первой паре?

Минимальный контекст произошедшего таков. Известная своими передовыми разработками компания OpenAI в начале декабря представила новую технологию под названием ChatGPT, сразу же ставшую объектом внимания в соцсетях. Как следует из названия, технология эта способна общаться с пользователем в режиме чата, то есть давать ответы на вопросы, заданные на простом человеческом языке. Делает она это очень прилично, в разы лучше, чем аналогичные нейросети предыдущего поколения, даже основанные на том же принципе, так называемой архитектуре трансформер. Буква T в аббревиатуре GPT как раз и значит «трансформеры», которые совершили несколько лет назад настоящую революцию в текстопорождении, сумев вывести его на такой уровень, где компьютерный текст уже с некоторым трудом можно отличить от человеческого.

ChatGPT умеет не только разговаривать как человек, но и писать программный код, исправлять ошибки, делать резюме текста. Словом, нейросеть начинает конкурировать с человеком в ряде сфер уже не просто подсобной, а по-настоящему интеллектуальной деятельности.

Кстати, очень странно после истории с поддельным дипломом звучат предложения ограничить в вузах доступ к ChatGPT. Во-первых, прогресс не остановить, и закрыться от новых технологий не получится — как Японии не удалось остаться в самурайском средневековье. А во-вторых, доступ к ChatGPT уже ограничен для всей России, сделали это сами OpenAI почти сразу после релиза нейросети. По воле разработчиков зарегистрироваться на их сайте российские пользователи не могут.

Как работают такие нейросети? В процессе тренировки они «прочитывают» огромное количество текстов — по сути, весь интернет — и выучивают вероятности следования слов друг за другом. На основе этих вероятностей искусственный интеллект весьма сносно имитирует человеческую речь, которая и в самом деле порой кажется разумной. Но разумность эту не стоит преувеличивать, потому что нейросеть ничего не знает о мире вокруг. Ее легко поймать на фактической ошибке. Например, мне ChatGPT однажды сообщила, что Лев Толстой написал «Отцы и дети».

Из отличительных особенностей именно ChatGPT, по сравнению с предшественниками, — предельное внимание к этике. Если начать задавать нейросети вопросы, связанные с насилием или некорректным поведением, затрагивающим чьи-нибудь чувства, ChatGPT ответит, что делать так нехорошо, и постарается убедить собеседника поступать правильно.

Кстати, об этике. Прав ли был студент, защитивший диплом, написанный не им? Разумеется, он пошел на обман. Дипломная работа предполагает самостоятельный труд, демонстрирующий полученные в вузе умения. Это не только поиск информации, но и ее осмысление. Проникнуть в голову к студенту, чтобы понять, насколько он разобрался в материале, невозможно. Поэтому преподаватели пользуются текстами учеников как критерием оценки их знаний: «Порядок в буквах означает порядок в голове». Если текст написан несамостоятельно, то и оценить уровень студента таким способом нельзя. Так что нет разницы, написан твой диплом другим человеком за деньги или искусственным интеллектом бесплатно. Он ничего не говорит о главном — насколько хорошо ты усвоил то, чему тебя учили.

В вузах уже давно проверяют курсовые и дипломы на плагиат. Но это формальный подход, оценивающий оригинальность текста, а не оригинальность высказанной в нем мысли. При этом мысль важнее. А вот как раз оригинальных мыслей у ChatGPT нет. В этом плане искусственный интеллект выдает всегда что-то банальное, среднеарифметическое от прочитанного для тренировки. Это, кстати, видно и по стихам, которые сочиняет ChatGPT. Там выходит что-то вроде «розы красные, небо голубое».

Что теперь делать преподавателям, чтобы не попасться на уловку студента? Прежде всего, вкладывать в процесс больше усилий и изобретательности. В скандальной истории про диплом тема, одобренная научным руководителем, выглядит очень общо, абстрактно. Нужно придумывать для студентов такие задания, с которыми ChatGPT не справится даже на тройку. Победить нейросети интеллектуально человек всё еще способен, что показывает приведенный выше пример про «роман» Толстого.

Так что закрывать вузы пока рано. Нужно помнить, что хотя компьютер и научился писать тексты, он всё еще не может за нас думать, поэтому машина избавляет только от рутины, но не от профессии.

Автор — кандидат филологических наук, академический руководитель магистерской программы «Цифровые методы в гуманитарных науках» НИУ ВШЭ

Позиция редакции может не совпадать с мнением автора

Читайте также
Прямой эфир