большая языковая модель

  1. BOOX

    Новая техника взлома LLM: исследователи обнаружили способ обхода систем безопасности больших языковых моделей

    Эта стратегия получила кодовое название Bad Likert Judge. Её разработали исследователи Yongzhe Huang, Yang Ji, Wenjun Hu, Jay Chen, Akshata Rao и Danny Tsechansky. «Эта техника использует целевую LLM в качестве судьи, который оценивает вредность ответа по шкале Лайкерта. Шкала Лайкерта является...
Назад
Сверху Снизу