https://arxiv.org/abs/1801.02774
Интересно , это еще один Papert Minsky, или нет?
GAN подход еще не рассматривает adversarial examples как результат целевого дизайна, а не просто "крайних случаев". А надо бы.
Использованные источники:
https://arxiv.org/abs/1801.02774
Интересно , это еще один Papert Minsky, или нет?
GAN подход еще не рассматривает adversarial examples как результат целевого дизайна, а не просто "крайних случаев". А надо бы.
Комментарии
Что это?
Неведомая хня, которая к существованию не имеет никакого отношения.
Хотелось бы подробностей. Желательно с формулами.
в ссылке все есть, все как в "зеленой энергетике"
Я знаю все сказала Википедия
Я найду всё сказал Гугл
Я знаю всех сказал Фейсбук
Без меня вы ничто заметил Интернет
Ага сказало электричество, и моргнуло
Думал, что-то серьезное. Прочел. Идиотизм. Нахрена было тащить это?
я не знал что тебе не понравится...а мне показалось интересным
гугло-перевод доступного топика:
"1460/5000
Показано, что современные компьютерные модели зрения уязвимы для небольших состязательных возмущений ввода. Другими словами, большинство изображений в распределении данных правильно классифицируются по модели и очень близки к визуально подобному ошибочному изображению. Несмотря на значительный исследовательский интерес, причина этого явления еще недостаточно изучена и остается нерешенной. Мы предполагаем, что это противодействующее интуитивное поведение является естественным результатом высокомерной геометрии многообразия данных. В качестве первого шага к изучению этой гипотезы мы изучаем простой синтетический набор данных о классификации между двумя концентрическими высокомерными сферами. Для этого набора данных мы показываем фундаментальный компромисс между величиной ошибки теста и средним расстоянием до ближайшей ошибки. В частности, мы доказываем, что любая модель, которая неправильно классифицирует небольшую постоянную часть сферы, будет уязвима для состязательных возмущений размера O (1 / d - √). Удивительно, но когда мы собираем несколько разных архитектур в этом наборе данных, все их наборы ошибок естественно подходят к этой теоретической оценке. В результате теории уязвимость нейронных сетей к малым состязательным возмущениям является логическим следствием наблюдаемой ошибки теста. Мы надеемся, что наш теоретический анализ этого очень простого случая покажет путь для изучения того, как геометрия сложных наборов данных реального мира приводит к состязательным примерам."
В принципе - херь очевидная, по-сути - очередная попытка залезть в "мозги" нейросетей, абсолютно неудачная..
Перспективный чат детектед! Сим повелеваю - внести запись в реестр самых обсуждаемых за последние 4 часа.