Пользователи заметили необычные проявления в работе модели о1 от OpenAI, первой «рассуждающей» модели искусственного интеллекта. Так, при ответах на вопросы модель иногда переключается на другие языки, такие как китайский или персидский, даже если вопрос задан на английском. Например, один из пользователей Reddit описал ситуацию, когда o1 начала «думать» на китайском языке, прежде чем предоставить ответ на английском.
Специалисты отмечают, что модель o1 может использовать языки, которые ей кажутся наиболее эффективными для решения задач. Генеральный директор Hugging Face, Клеман Деланж, предположил, что такие отклонения могут быть связаны с обучающими данными, содержащими большое количество китайских иероглифов. Однако некоторые эксперты, такие как Мэтью Гуздиал из Университета Альберты, исходят из того, что o1 воспринимает текст просто как данные, а не как язык, и может применять любую лексическую единицу, которая будет способствовать решению поставленной задачи.
Разработчик не комментирует причину возникшей проблемы. В то же время, по мнению некоторых исследователей, модели, подобные o1, могут адаптироваться к разным языкам в зависимости от специфики конкретной задачи. Например, для математических расчетов китайский язык может быть более эффективен, чем английский.
Тем не менее, отсутствие прозрачности в процессе разработки и обучения подобных моделей оставляет множество вопросов без ответа, особенно в контексте их многоязычного поведения.