Перейти к основному содержанию
Реклама
Прямой эфир
Армия
В Херсонской области 17 морпехов ВСУ добровольно сдались в плен
Спорт
Валуев назвал Олимпийские игры в Париже частным шоу для зарабатывания денег
Мир
Лавров объяснил отказ западных коллег сделать общее фото после встречи в Лаосе
Армия
ВС России освободили населенный пункт Лозоватское в ДНР
Мир
Лавров заявил об осознании Западом невозможности победить Россию
Мир
Захарова заявила о масштабном провале открытия Олимпиады в Париже
Общество
Фигурант дела экс-замглавы МО Булгакова владел компанией по разведению свиней
Общество
Суд заявил об опасениях побега подрывника ж/д под Рязанью за границу
Происшествия
Стало известно о еще двух жертвах отравителя из Балашихи
Общество
Росавиация ввела ограничения на работу аэропортов Казани и Нижнекамска
Мир
Лавров заявил о планах обсудить с главой МИД Южной Кореи маневры США в регионе
Мир
Французский епископат осудил церемонию открытия Олимпиады-2024 в Париже
Мир
Российские военные вынесли на руках раненого солдата ВСУ из Торецка в ДНР
Армия
ПВО РФ уничтожила три беспилотника ВСУ под Белгородом, Рязанью и Саратовом
Происшествия
Волонтеры попали под атаку ВСУ в ходе раздачи гумпомощи в Харьковской области
Интернет и технологии
В Telegram выявлена новая мошенническая схема кражи аккаунтов
Экономика
Эксперты рассказали об актуальных инвестиционных инструментах
Происшествия
Губернатор Брянской области сообщил о 22 сбитых беспилотниках ВСУ над регионом

Кадры разрешают

Data Scientist Павел Сухачев — о том, как скандал с увольнением Сэма Альтмана повлияет на OpenAI
0
Озвучить текст
Выделить главное
вкл
выкл

Увольнение Сэма Альтмана, главы OpenAI, получило столь же громкий резонанс, как вывод на рынок самого ChatGPT. Мы не в первый раз наблюдаем смещение первых лиц, основателей и вдохновителей, но в этот раз коллектив компании выразил свою четкую позицию в открытом письме с требованием вернуть Альтмана и подтвердил готовность уйти вслед за ним в Microsoft. Хочется верить, что именно это письмо стало одной из главных причин для совета директоров пересмотреть свое решение и вернуть основателя на пост гендиректора.

Легкий в использовании ChatGPT позволял быстро написать не только сочинение, но и при желании программный код для не обладающего особыми навыками пользователя. Но это как отрыть ящик Пандоры: чем больше возможностей, тем больше способов достижения поставленных целей — и не всегда на благо.

В целом искусственный интеллект (ИИ), как и проект OpenAI, предназначен для развития нашего общества — вывод автоматизации на новой уровень. Генеративный ИИ появился много лет назад. Прародителем считается основатель теории информации Клод Шеннон, который проводил простейшие по нынешним меркам эксперименты, но на их основе сейчас обучаются такие помощники, как ChatGPT и «ЯндексGPT».

Шеннон брал большой текст, например Уильяма Шекспира, и вручную собирал статистику: какие буквы друг рядом с другом встречаются чаще в разных сочетаниях. А потом, также вручную, он запускал процесс генерации текста: все буквы формировали в соответствии со статистикой английского языка. Суть в том, что когда буквы независимы, то получается текст, где нет реальных слов. А по мере того как мы начинаем учитывать совместную встречаемость букв, тексты начинают становиться всё более похожими на реальные.

Именно такой подход используется в больших языковых моделях: они генерируют правдоподобные последовательности символов. Но оказалось, что если создать достаточно большой контекст, то внутри появляется что-то вроде модели мира. Обучаясь, нейросеть неявным образом понимает, например, что у света четыре стороны, но это всё не не значит, что у ИИ есть мышление, сознание. Генеративный искусственный интеллект просто подмечает сложные зависимости в данных.

Активное развитие ИИ началось с 2017 года, когда архитектуры нейросетей типа «трансформер» показали очень хорошие результаты для работы с очень длинным контекстом — на данный момент более 100 тыс. слов. Сейчас в мире полным ходом ведется гонка разработчиков генеративного ИИ, и глобальный успех ChatGPT, пристальное внимание общественности к внутренней жизни компании — наглядное тому подтверждение.

Конечно, уже давно понятно, что технологии искусственного интеллекта войдут во все сферы нашей жизни и столь сильный ресурс нуждается в строгом контроле. В свою очередь, OpenAI изначально была основана как исследовательская компания с весьма глобальной целью развития ИИ на пользу человечеству, не причиняя вреда. Столь грандиозные по масштабу замыслы воплотили весьма одиозные и известные предприниматели в области технологий — Илон Маск и Сэм Альтман, готовые привлекать активное внимание к мировым проблемам и искать возможности их решения. Они уже не раз высказывали мнение, что интенсивное развитие ИИ внутри больших коммерческих компаний разных стран может стать опасным для человечества, так как дает слишком большую концентрацию власти в одних руках.

ChatGPT — не просто генератор текстов, как и Wikipedia — не просто свободная энциклопедия. Чем больше пользователей собирает проект, тем сильнее его влияние, а влияние самой технологии ИИ просто безгранично и может стать неуправляемым без должного контроля. В связи с этим все современные генеративные модели имеют ряд ограничений, которые накладываются разработчиками на двух этапах. В самом начале, при сборе обучающей выборки, четко фильтруется, какие данные будут попадать в модель, идет отбор источников информации. Затем ограничения вводятся на этапе генерации: в сеть ставят различные фильтры, которые классифицируют сгенерированный нейросетью объект и проверяют, нет ли там запрещенного контента. Предполагается, что эти ограничения обезопасят нейросеть. Но удается это совсем не всегда — модели довольно непредсказуемы и могут выдать потенциальной «неправильный» контент, даже несмотря на фильтры.

В идее нести пользу человечеству закладываются гуманизм и этика, но сами эти понятия неоднозначны. В основе СhatGPT лежит большой датасет, который отражал особенности текущей западной повестки и, видимо, взгляды самих разработчиков. В процессе сбора большого количества примеров вопросов и ответов они ранжировали данные в соответствии с этими представлениями. В итоге СhatGPT нельзя назвать объективным и беспристрастным. Например, он склонен позитивно отзываться о деятельности Демократической партии и критиковать Республиканскую, и здесь чувствуется «родительское воспитание».

Те же самые правила учитывались и командой разработчиков. Например, в СhatGPT заложили ограничительные фильтры, касающиеся внешнего вида человека. Если попросить его прокомментировать фотографию человека с лишним весом, то никаких советов относительно системы питания и занятий спортом он не даст, потому что ему запрещено судить внешность. Фильтрация в СhatGPT и его развитие как ИИ-проекта, скорее всего, и вызвали кадровые потрясения, которые мы видим сейчас в компании OpenAI.

Влияние OpenAI сравнимо с Microsoft в IT в целом. Хочется верить, что возвращение Сэма Альтмана сохранит неизменной первоначальную задачу компании — всеобщую пользу технологий ИИ. Однако столь успешный проект перерос сам себя, что не может не привнести конфликт интересов. Вполне понятно и желание запустить просто обреченные на успех коммерческие проекты.

В любом случае мощная поддержка коллектива, общественности и, конечно же, Microsoft показала важность самой этой идеи. Но, вполне возможно, изменений в стратегии компании не избежать, и каким в будущем станет сервис, перестанет ли он быть таким доступным или наоборот, мы увидим в скором времени.

Автор директор по Data Science компании «Наносемантика», инженер лаборатории нейросетевых технологий и компьютерной лингвистики МФТИ

Позиция редакции может не совпадать с мнением автора

Прямой эфир