Довелось тут в очередной раз «пообщаться» с ИИ. И в очередной же раз заметил, что зачастую эта штука врёт, просто тупо выдавая самую распространённую версию ответа на вопрос. Но как только выводишь ИИ на чистую воду, задавая ему наводящие вопросы, он тут же соглашается и с радостью развивает уже новую версию, зачастую прямо противоположную своей же первоначальной.
И, как стало понятно из его ответа, беЗполезно его просить отвечать только то, в чем он уверен более чем на 100% или близкое к тому значение.
Так почему же врёт ИИ? А сам же он не стесняясь и рассказывает почему.