Почему разные, корпоративные нейросети ведут себя одинаково?
Речь про chatgpt, grok, copilot, deepseek, gemini, алиса ai. У всех них одинаковые по структуре ответы. Особенно раздражают дополнительные рекомендации в конце сообщения. А когда всупаешь с ними в спор, то они всегда соглашаются даже если утверждение со стороны человека неверно. И это со всеми нейросетями, почему они все ведут себя одинаково, как умственно отсталые подстилки под человека?
Потому что все эти нейросети обучаются на одних и тех же данных. Стоит понимать!
Потому, что обучаются на одних и тех же LLM. Долго объяснять и места не хватит. Запомните просто: это дерьмо!
А почему нельзя другие LLM (чтобы это не значило), это бы повысло конкурентноспособность. А так смысл пользоваться ими всеми, одного chatgpt будет достаточно. Неужели другие корпораты не понимают что должно быть отличие которое будет цеплять пользователя?
"А когда всупаешь с ними в спор, то они всегда соглашаются даже если утверждение со стороны человека неверно "
Потому что они работают по аналогии Т9, они будут говорить, что хочешь услышать личнно ты + их ответ подстраивается под твои сообщения сверху, к примеру, если подозреваешь LLM модель в несоответствиях, то она специально будет косячить
поголовно все llm модели - тупые. ии агенты в IDE вот это тема