Галлюцинации в LLM не просто ошибки; они ожидаемы. Так как же нам доверять результатам? В недавнем стриме @Shonik14, начальник штаба @Mira_Network, высказал резкое мнение: // Даже GPT-3.5 может галлюцинировать до 27% времени. // Ни одна модель не может гарантировать "правильный ответ" каждый раз. Их решение? Механизм консенсуса для LLM, не так уж отличающийся от того, что мы видим в блокчейнах. ✅ Несколько моделей проверяют друг друга ✅ Ответы оцениваются ✅ Если модель выдает неправильные результаты, ее доля уменьшается Результат? Система стимулов, где узлы вознаграждаются за точные результаты и наказываются за чепуху. Это поднимает более широкий вопрос для экономики агентов: Является ли консенсус моделей будущим доверия к ИИ? И как бы вы применили эту идею в вашей инфраструктуре агентов? Поделитесь своими мыслями👇
2,41K