ChatGPT, Gemini и Claude больше не ошибаются?
"Ученые из DeepMind и Стэнфорда представили алгоритм SAFE, который позволяет нейросетям стать более точными. SAFE автоматически проверяет информацию, "
Ученые из DeepMind и Стэнфорда представили новый алгоритм, который позволяет нейросетям стать более точными и меньше ошибаться.
Алгоритм называется SAFE (Scalable and Efficient Fact-Checking for Language Models) и он автоматически проверяет информацию, генерируемую нейросетевыми моделями.
SAFE работает значительно быстрее и точнее, чем человек, что делает его незаменимым инструментом для исследователей и разработчиков.
В ходе исследования ученые протестировали SAFE на нескольких нейросетевых моделях, включая GPT-4, Gemini и Claude.
Результаты показали, что модели с SAFE стали гораздо точнее в своих ответах.
Чем сложнее нейросетевая модель, тем лучше она работает с SAFE.
GPT-4 Turbo, Gemini Ultra и PaLM-2-L-IT-RLHF показали наилучшие результаты в тестировании.
Это исследование является значительным шагом вперед в развитии нейросетевых технологий.
SAFE может сделать нейросетевые модели более надежными и полезными для различных задач.
Ссылка на исследование: https://arxiv.org [timer][10]