Description
Глубокие нейронные сети произвели революцию и улучшили нашу повседневную жизнь. Кроме того, нейросети удивительным образом очень уязвимы к малым возмущениям входных данных (adversarial attacks). Эти злонамеренные и хорошо продуманные крошечные изменения аккуратно вычислены и способствуют большим ошибкам нейросетей. Они могут целиться, чтобы классификатор выдавал какой-то конкретный класс (targeted attacks) или любой класс, отличающийся от правильного (untargeted attack). Эти атаки могут быть направлены на беспилотные автомобили, системы распознавание речи и идентификации лиц. Докладчик продемонстрирует способ обмана предсказания top-k на датасетах Imagenet и CIFAR-10. Рассказывает Нурислам Турсынбек.
Смотреть
Что такое вирусный анализ и кто им занимается? Когда появились вирусы и как эволюционировали языки программирования в их разработке? Как проходит день вирусного аналитика и какие инструменты он использует в работе? Какое место в вирусном анализе занимают технологии машинного обучения?
Это только...
Published 10/23/23
В этом выпуске поговорим со специалистами по безопасности распределённых реестров Андреем Бачуриным и Игорем Агиевичем. Вы узнаете:
Как стать специалистом по безопасности блокчейна?
Каковы наиболее насущные проблемы безопасности, связанные с технологией блокчейн?
Что такое смарт-контракты и как...
Published 04/05/23