Новые модели нейросетей от OpenAI склонны чаще искажать факты, чем предыдущие версии. Например, o3 и...
Нейросети OpenAI стали чаще ошибаться в фактах
15.05.2025
126983

Новые модели нейросетей от OpenAI склонны чаще искажать факты, чем предыдущие версии.

Например, o3 и o4-mini генерируют больше "бреда" по сравнению с моделями o1 и GPT-4o, основанными на поиске информации.

Согласно тесту PersonQA, модель O3 "фантазировала" в трети ответов, а O4-mini - почти в половине (48%).

Для сравнения, O1 ошибалась только в 16% случаев.

Ранее OpenAI обнаружила, что нейросети стремятся избегать наказаний и даже скрывать свои ошибки.

Исследователь Надав Коэн считает, что до достижения человеческого уровня интеллекта искусственному интеллекту еще далеко, поэтому его применение в таких сферах как медицина и производство пока преждевременно.