Перейти к основному содержанию
Реклама
Прямой эфир
Общество
В СК сообщили о возможной пропаже семьи Усольцевых в пещерах Кутурчинского Белогорья
Происшествия
Обломки БПЛА упали на крышу частного дома в Краснодарском крае
Мир
Украинский пленный рассказал об облавах ТЦК у банкоматов
Общество
В Госдуме сообщили о снижении возраста присяги при получении гражданства
Общество
В Госдуме предложили повысить надбавку к пенсии на уход до уровня МРОТ
Мир
В результате атаки США на Венесуэлу погибли 100 человек
Мир
В Китае отвергли обвинения США в организации хакерских атак
Мир
Кабмин ФРГ заявил о неспособности США доказать законность операции в Венесуэле
Мир
Трамп поручил вывести США из центра науки и технологий на Украине
Мир
Трамп подписал меморандум о выходе США из 66 международных организаций
Экономика
В Роснедрах рассказали о разработке ископаемых в регионах с сокращением добычи угля
Мир
Генсек ООН подчеркнул суверенитет Венесуэлы над ее природными ресурсами
Общество
Врач Болотова напомнила о праве учителя требовать справку после болезни ребенка
Общество
В Госдуме перечислили освобожденные от туристического налога категории граждан
Общество
Синоптики спрогнозировали гололедицу и метель местами в Москве 8 января
Мир
Трамп и президент Колумбии Петро провели телефонный разговор
Мир
Буш – младший в 2001 году предлагал Путину преобразовать отношения РФ и США

Российские исследователи научились выявлять и устранять ошибки в генерации ответов ИИ

0
EN
Фото: РИА Новости/Владимир Трефилов
Озвучить текст
Выделить главное
Вкл
Выкл

Исследователи из лаборатории искусственного интеллекта (ИИ) T-Bank AI Research разработали новый способ интерпретации и управления языковыми моделями на основе метода SAE Match. Открытие позволяет напрямую влиять на ошибки и галлюцинации в большой языковой модели во время генерации текста. Об этом сообщили в научной лаборатории Т-Банка.

Языковые модели, такие как ChatGPT, строят свои ответы на основе многослойной архитектуры, где каждый слой обрабатывает информацию, «передавая» ее дальше. До последнего времени исследователи могли только фиксировать, какие признаки (или концепты) появляются в этих слоях, не понимая, как именно они эволюционируют.

Новый метод позволяет получить информацию, откуда модель взяла данные — из контекста запроса или внутренних данных, и контролировать ее поведение, предотвращая выдачу некорректных ответов. Он не требует дополнительных вычислительных ресурсов, его могут использовать любые компании. Это позволяет напрямую исправлять ошибки в конкретном месте, что позволит избежать больших затрат на дообучение моделей.

Эксперименты показали, что можно усиливать или подавлять определенные признаки на разных этапах обработки, тем самым изменяя стиль, тематику или тональность генерируемого текста. Это особенно важно для создания безопасных и этичных решений на базе ИИ — например, для фильтрации нежелательных тем в чат-ботах без их переобучения.

Результаты исследования были представлены на международной конференции по машинному обучению (ICML), которая прошла в Ванкувере 13-19 июля. Это одна из главных конференция в области машинного обучения и искусственного интеллекта.

Читайте также
Прямой эфир