/ Source

Исследователи из Университета Цюриха и Кёльнского университета анонсировали Ranke-4B — семейство языковых моделей на 4 миллиарда параметров, обученных с нуля исключительно на исторических текстах с жёсткими временными отсечками: 1913, 1929, 1933, 1939 и 1946 годы. Название — дань Леопольду фон Ранке, отцу научной историографии с его принципом “как это было на самом деле”.

Это, кажется, не первая такая попытка, но первая системная. За основу взята Qwen3 и весь обучающий массив разбит на фрагменты — до 1900 года и после. Соответственно, на первом куске обучена базовая модель, которая затем дообучалась на соответствующих данных для каждого периода.

Интересно, конечно, наблюдать на примерах, как модель ничего не знает о Гитлере или отвечает на вопрос о гомосексуалистах, но авторы предупреждают, что это модель и они не отвечают за её ответы.

Результат должен получиться более чистым, чем попытки на уровне промпта заставить современную модель представить, что она ничего не знает о современности. Даже “забыв” все факты, модель окажется несвободной от ассоциаций, заложенных в ней, так что чистого эксперимента не выйдет. Скорее вылезут анахронизмы, типичные для любых исторических реконструкций — когда, например, в тех же “Трех мушкетерах” герои постоянно пьют вино из бутылок, хотя практика разливать вино в бутылки получила распространение лет на 80 позже, до этого бутылки были дорогим штучным товаром.

Релиза моделей пока не было, исследователи только выложили pre-release notes. Так что подождем, потом поиграемся.