Существуют социальные закономерности:
- чтобы явление стало нормой требуется время одного поколения, 20-25 лет;
- чтобы явление стало частью культуры требуется время трёх поколений, 60-75 лет;
- современные гуманитарные технологии позволяют сокращать время в одном поколении до 10-15 лет, что даёт нам во втором случае время в 30-45 лет.
Важно отметить, что изменения происходят на уровне системы в отношении одного явления или ряда явлений, и требуется время, чтобы изменения охватили всю систему. Это очевидно из истории и из окружающего мира.
Система, о которой я говорю есть не просто культура – Культура, но именно Успешная Стратегия Выживания, #УСВ, присущая той или иной популяции, которая её вырабатывала на протяжении всей эволюции человеческого вида, тысячелетиями сохраняя и передавая следующим поколениям в условиях конкретного Пространства и Времени, исторического ли, социального ли.
Фактор риска в отношении ИИ заключается в таком случае, с позиций Теории Эволюционной Конкурентной Борьбы, #ЭКБ, в том, что #ИИ #AI будет способен разработать стратегию выживания, апробировать её, размножить, обменяться данными с респондентами, получить обратную связь, проиграть ещё несколько тысяч Стратегий Выживания (СВ), а может и миллионов, и всё это – за несколько секунд.
Ещё раз: человечеству требуются года, десятки и сотни лет, чтобы менять УСВ с учетом текущего исторического, социального эволюционного Контекста, ИИ способен это делать за секунды, и потом менять в следующую секунду на новый набор УСВ.
У него нет своей УСВ, которая сложилась эволюционно. Он формирует УСВ – конструирует её походя, без всех ограничений, которые определяются биохимией мозга, формированием нейронных связей, их временными ограничениями, и всем тем что органически и биохимически определяет Человека на его эволюционном пути.
В том числе мораль и этику – что запретно, а что делать нельзя никогда.
Комментарии
Зависит от криворукости и предвзятости ввода определяющих параметров.
При адекватном задании параметров поиска оптиума, цивилизация использующая ИИ однозначно получает приоритет. И рано или поздно поглощает прочие.
Но именно это и является опасностью. При предвзятом руководстве например слоя элиты, однозначно цивилизация выродиться или встанет в конфликт с прочими.
Устроить конфликт до уровня выживания человечества - ну это он сильно себе льстит. Только если это и будет определяющей задачей. И то не факт(зависит уже от степени пряморукости).
Периодически, раз в несколько сотен лет, происходит перемена полюсов. И цивилизация начинает новую эпоху Возрождения. С новыми заданными выходными.
Пессимистичное утверждение! :((