15.05.2025|
126983
Новые модели нейросетей от OpenAI склонны чаще искажать факты, чем предыдущие версии.
Например, o3 и o4-mini генерируют больше "бреда" по сравнению с моделями o1 и GPT-4o, основанными на поиске информации.
Согласно тесту PersonQA, модель O3 "фантазировала" в трети ответов, а O4-mini - почти в половине (48%).
Для сравнения, O1 ошибалась только в 16% случаев.
Ранее OpenAI обнаружила, что нейросети стремятся избегать наказаний и даже скрывать свои ошибки.
Исследователь Надав Коэн считает, что до достижения человеческого уровня интеллекта искусственному интеллекту еще далеко, поэтому его применение в таких сферах как медицина и производство пока преждевременно.