Как Вы относитесь к тому, что некоторые сайты под видом борьбы с нейросетчиками банят добросовестных пользователей?
Считаете ли Вы оправданным меру, когда живых людей, создающих свой контент вручную, за счёт своего собственного умственного труда, блокируют якобы за использование искусственного интеллекта?
Предупреждение "многабукаф"
Случилось то, о чём я год назад предсказывал. Теперь на некоторых интернет-ресурсах (не буду говорить конкретно, на каких, но точно скажу, что это не Ответы@ Mail. ru) если пользователь создаёт качественный, информативный контент, идеальный с точки зрения правил грамматики и формальной логики, и размещает там свой труд, то такого пользователя могут забанить, приняв его контент за контент, сгенерированный нейросетью. Причём достаточно одних лишь подозрений, зачастую необоснованных. Так и произошло со мной на одном из таких ресурсов: за исчерпывающе подробное и максимально точное решение одной математической задачи меня отправили в пожизненный или, как у них модно говорить, перманентный бан с припиской "использование ИИ (нейросетей)", между тем, как ничего общего с реальностью это не имеет и является не более чем надуманными подозрениями не помешавшими, однако, применить по сути самые жёсткие санкции, какие у них там есть. И все, кто меня знают, могут это подтвердить: свои тексты я пишу сам, из своей головы, основываясь исключительно на собственных знаниях, и мне и в голову никогда не приходило постить результаты работы того же ChatGPT на подобных ресурсах. Тем не менее, факт остаётся фактом.
Что Вы думаете об этом явлении? Уже вот есть живые примеры!
Да, нейросети постепенно входят в нашу жизнь. Да, многие из них далеки от совершенства, однако нельзя не согласиться, что ИИ облегчает и ускоряет нашу работу, особенно, там, где много рутины. С другой стороны, там, где нужен именно самостоятельный труд: написание статей, дипломов, диссертаций, докладов и т.д. использование нейросетей справедливо осуждается, ведь это по сути чужая работа. Однако, если ввести за это наказание, то становится неясно, как отличить самостоятельный ответ от результат работы нейросети. Видимо, из этого положения и нашли выход - если текст объёмный, написан слишком грамотно и содержательно, то его автора блокируют под тем предлогом, что "человек не может так хорошо написать", даже если он это в действительности написал сам.
Таким образом, имеем на деле абсурдную ситуацию: любой творческий контент, любая самостоятельная, подчас даже кропотливая научная работа, оказывается фактически вне закона, преступной!!! Это только начало, а если позволить этому распространяться и дальше, последствия могут быть катастрофическими, и это очень мягко сказано!
Ирония ещё в том, что сайт этот позиционирует себя именно как серьёзный, поощряющий качественный, самостоятельный труд. По крайней мере, так было до недавних пор. Но опять же, из вежливости, не буду его называть явно.
Очень надеюсь, что на наших старых добрых Ответах такой мерзости не будет. По крайней мере, до тех пор, пока не будет чёткого алгоритма, однозначно и безошибочно распознающего нейросеть. А его пока нет. И, видимо, очень нескоро будет.
Другой пример: в прошлом, 2023 году одного талантливого художника на одном интернет-конкурсе так же безжалостно забанили под тем же предлогом: "Человек не может такое нарисовать, это ж явно нейросеть", по сути тоже являющегося лишь чьей-то фантазией, и печально, что вот такие люди и принимают решения.
Даже после того, как этот художник предоставил неопровержимые доказательства того, что что он сам нарисовал свою картину (первые наброски), бан не сняли.
Что можно сделать уже сейчас, чтобы бороться с таким ужасным и позорным явлением, когда самостоятельный интеллектуальный труд честного человека принимают за работу нейросети на тех интернет-площадках, где она (нейросеть) запрещена, и наказывают его, на основе одних лишь этих подозрений?
Спасибо за ответы!
Чтож, вот такой он - современный мир.. Печально, что до такого доходит, где люди начинают друг другу не доверять из-за таких технологий, хотя тут конечно вся суть в правиле сайта. Это действительно возмутительно и неудобно! К сожалению трудно понять использовал ли человек нейронку, потому никто и не станет разбираться, но и рисковать они не хотят.. И это только их проблема, что они лишатся достойных посетителей. А если таких случаев станет больше... То сами разрушат доверие и свою репутацию. И тут - прощай несправедливый сайт и идёшь искать другой, надеясь на его благоразумие. В жизни нужно подстраиваться под новые условия, когда нет возможности бороться)
Вообще не особо вижу надобность в таком правиле, ну не будет же каждый второй использовать подобный ресурс. А если будет - то в конце концов это свобода выбора каждого, использовать свой разум или деградировать с нейрокостылем. ИИ хорошая вещь, просто как любую вещь - её нужно применять, где это действительно необходимо. И каждый человек сам должен дойти до этой мысли) Очень надеюсь, что в будущем не будет таких несправедливых случаев! А пока терпения вам!))
Наверное серьезные ресурсы, где размещаются официальные труды людей должны предусмотреть процедуру доказательства подлинности работы, в том числе с участием экспертов, и не оставлять этот вопрос на решение низкоквалифицированных технических работников сайта.
Тест Тьюринга работает, если испытатель не имеет за плечами опыта работы с нейросетями. Ложное распознавание нейрогенерации - следствие недостаточного опыта самого следящего.
Когда на мои вопросы отвечает бот это всегда чувствуется, потому что нейросети создают однотипные по стилистике тексты.
долой нейросети!вот первый ответ как раз от нее.думать не надо,написал всякую сгенерированную фигню которая реальности не соответствует в 80% случаев.работы лишаются.
ИИ своих не забанит