новинки фотоиндустрии, выставки, обзоры, мероприятия, практикумы

Оказалось, Apple умолчала об о…

19-07-2018 Hits:8 gadget news

Apple выделяется тем, что порой при анонсе новых устройств «забывает» рассказать о тех или иных новшествах, хотя это пошло бы...

5 мест, где точно понадобится …

19-07-2018 Hits:7 gadget news

Практически каждый производитель выпускает защищённые смартфоны или пытается хотя бы частично повысить их выживаемость при ежедневном использовании.  

 

Искусственный интеллект путает порно и пустыню

Полиция Великобритании обратилась к высокотехнологичному искусственному интеллекту, который должен помочь вести войну против бича детской порнографии, но система в настоящее время переживает трудные времена.

ukpolicedesertfeat-800x420

ИИ не может найти отличия между наготой и фотографиями пустынь.

Сайт The Telegraph сообщает, что цифровой отдел судебно-медицинской экспертизы полиции Великобритании занимается созданием искусственного интеллекта для сканирования телефонов и компьютеров подозреваемых на наличие детской порнографии, так что сотрудники полиции больше не будут подвергаться психологической травме, которая может возникнуть при просмотре чужих снимков.

Отдел, который должен был просмотреть 53000 устройств только в прошлом году, надеется на систему искусственного интеллекта, способную выполнять данную работу автоматически. Искусственный интеллект должен быть введён в работу в ближайшие два или три года.

Несмотря на то, что система достаточно хорошо определяет некоторые предметы на фотографиях, такие вещи, как наркотики, оружие и деньги, она не может увидеть различия между обнаженными телами и песчаными дюнами.

«Иногда система находит непристойное изображение, но это оказывается пустыня», говорит Марк Стокса, руководитель цифровой судебно-медицинской экспертизы. «По некоторым причинам многие люди ставят на заставку фотографии пустынь, а система думает, что это цвет кожи».

1513863135_3.jpg

Технология распознавания образов проделала длинный путь в последние годы. Google предлагает систему, автоматически описывающую содержание снимка и проставляющую хэштеги с точностью 94%. Но эти системы искусственного интеллекта делали досадные ошибки. Google и Flickr извинялись в 2015 году после того, как их автоматическая маркировка снимков определяла людей с темным цветом кожи как обезьян.


источник >>

 

Рейтинг@Mail.ru