Технология идентификации изображений
PhotoDNA — это запатентованная технология идентификации изображений и фильтрации контента [1], широко используемая поставщиками онлайн-услуг . [2] [3]
История
PhotoDNA была разработана Microsoft Research и Хани Фаридом , профессором Дартмутского колледжа , начиная с 2009 года. Из базы данных известных изображений и видеофайлов она создает уникальные хэши для представления каждого изображения, которые затем можно использовать для идентификации других экземпляров этих изображений. . [4]
Первоначально метод хеширования основывался на преобразовании изображений в черно-белый формат, разделении их на квадраты и количественной оценке затенения квадратов [5] не использовал технологию распознавания лиц и не мог идентифицировать человека или объект на изображении. изображение. [ нужна цитация ] Метод стремился быть устойчивым к изменениям изображения, включая изменение размера и незначительные изменения цвета. [4]
С 2015 года [6] аналогичные методы используются для отдельных видеокадров в видеофайлах. [7]
Microsoft передала [ не удалось проверить ] технологию PhotoDNA проекту VIC , который управляется и поддерживается Международным центром по пропавшим и эксплуатируемым детям (ICMEC) и используется в рамках операций цифровой криминалистики [8] [9] путем хранения «отпечатков пальцев», которые могут быть используется для уникальной идентификации отдельной фотографии. [9] [10] База данных содержит хэши миллионов элементов. [11]
В декабре 2014 года Microsoft бесплатно предоставила PhotoDNA квалифицированным организациям в виде модели «программное обеспечение как услуга» через Azure Marketplace . [12]
В 2010-х и 2020-х годах PhotoDNA была выдвинута в связи с политическими предложениями, касающимися модерации контента и интернет-цензуры , [13] включая слушания в Сенате США (2019 г. по «цифровой ответственности», [2] 2022 г. по Закону EARN IT [14] ) и различные предложения Европейской комиссии, названные гражданским обществом « фильтрами загрузки » [15] [16], такие как так называемые добровольные кодексы (в 2016 году [17] по разжиганию ненависти [18] после событий 2015 года , 2018 года [19] и 2022 г. [20] о дезинформации), законодательство об авторском праве (в основном директива об авторском праве 2019 г., обсуждавшаяся в период с 2014 г. [21] по 2021 г. [22] ), правила, связанные с терроризмом (TERREG) [23] и правила прослушивания интернет-телефонных сообщений (2021 г. «контроль чата»). . [24]
В 2016 году Хани Фарид предложил распространить использование этой технологии на контент, связанный с терроризмом . [25] В декабре 2016 года Facebook, Twitter, Google и Microsoft объявили о планах использовать PhotoDNA для удаления экстремистского контента, такого как видео с вербовкой террористов или изображения жестоких террористов. [26] В 2018 году Facebook заявил, что PhotoDNA использовалась для автоматического удаления видео Аль-Каиды . [13]
К 2019 году крупные технологические компании, включая Microsoft, Facebook и Google, публично объявили, что с 2017 года они используют GIFCT как общую базу данных контента, подлежащего автоматической цензуре. [2] Считалось , что по состоянию на 2021 год Apple будет использовать NeuralHash для аналогичных целей. [27]
В 2022 году The New York Times рассказала историю двух отцов, чьи учетные записи Google были закрыты после того, как фотографии своего ребенка, сделанные ими в медицинских целях, были автоматически загружены на серверы Google. [28] В статье PhotoDNA, для которой требуется база данных известных хэшей, сравнивается с технологией Google на основе искусственного интеллекта, которая может распознавать ранее невиданные эксплуататорские изображения. [29] [30]
Применение
Первоначально Microsoft использовала PhotoDNA в своих собственных сервисах, включая Bing и OneDrive . [31] По состоянию на 2022 год PhotoDNA широко использовалась поставщиками онлайн-услуг для модерации контента [10] [32] [33], включая Gmail Google , Twitter , [ 34] Facebook , [35] Adobe Systems , [36 ] ] Reddit , [37] Дискорд . [38]
Британский фонд Internet Watch Foundation , который собирал справочную базу данных сигнатур PhotoDNA, как сообщается, располагал более чем 300 000 хешей известных материалов о сексуальной эксплуатации детей. [ нужна ссылка ]
Другим источником базы данных был Национальный центр по делам пропавших и эксплуатируемых детей (NCMEC). [39] [40]
PhotoDNA широко используется для удаления контента, [2] отключения учетных записей и сообщения о людях. [7]
Смотрите также
Рекомендации
- ^ Дуз, Маттейс; Толиас, Гиоргос; Пицци, Эд; Папакипос, Зоя; Шануссо, Ловик; Раденович, Филип; Дженичек, Томас; Максимов, Максим; Леаль-Теше, Лаура; Элези, Исмаил; Чум, Ондржей; Феррер, Кристиан Кантон (21 февраля 2022 г.). «Набор данных и задача по сходству изображений 2021 года». arXiv : 2106.09672 [cs.CV].
Отпечатки изображений, такие как PhotoDNA от Microsoft, используются во всей отрасли для идентификации изображений, изображающих эксплуатацию и жестокое обращение с детьми.
- ^ abcd «Рост картелей содержания». сайт Knightcolumbia.org . 11 февраля 2020 г. . Проверено 21 августа 2022 г.
- ↑ Хилл, Кашмир (21 августа 2022 г.). «Папа сфотографировал своего обнаженного малыша для врача. Google пометил его как преступника» . Нью-Йорк Таймс . ISSN 0362-4331 . Проверено 21 августа 2022 г.
- ^ ab «Новая технология борется с детской порнографией, отслеживая ее «ФотоДНК»» . Корпорация Майкрософт. 15 декабря 2009 года . Проверено 9 сентября 2016 г.
- ^ «Фото ДНК: Шаг за шагом» . Майкрософт. Архивировано из оригинала 21 сентября 2013 года . Проверено 11 февраля 2014 г.
- ^ «Как PhotoDNA для видео используется для борьбы с эксплуатацией детей в Интернете» . 12 сентября 2018 г.
- ^ ab «Как PhotoDNA для видео используется для борьбы с эксплуатацией детей в Интернете» . news.microsoft.com. 12 сентября 2018 г.
- ↑ Джексон, Уильям (27 августа 2014 г.). «Улучшенные инструменты анализа изображений ускоряют случаи эксплуатации детей». ГЦН.
- ^ Аб Кларк, Лиат (30 апреля 2014 г.). «Технология отслеживания жестокого обращения с детьми передана в дар всему миру» . Проводная Великобритания .
- ^ ab «Ответ Microsoft на консультацию по Сообщению Европейской комиссии о правах ребенка (2011–2014 гг.)» (PDF) . Архивировано из оригинала (PDF) 24 октября 2017 г., Европейская комиссия
- ↑ Уорд, Марк (23 марта 2014 г.). «Облачный инструмент архивирования, который поможет поймать насильников над детьми». Новости BBC .
- ^ «Облачный сервис PhotoDNA». Microsoft.com . Корпорация Майкрософт . Проверено 19 февраля 2015 г.
- ^ аб Ричард Аллан (18 июня 2018 г.). «Слушание в 11:14».в «Горизонтальной нормативной базе ЕС по удалению незаконного контента в DSM».
- ^ Чт; Сока, 10 февраля 2022 г., 15:30 — Берин; Кон, Ари (10 февраля 2022 г.). «Десять главных ошибок, допущенных сенаторами во время сегодняшней разметки EARN IT». Техдирт . Проверено 21 августа 2022 г.
{{cite web}}
: CS1 maint: числовые имена: список авторов ( ссылка ) - ↑ Шмон, Кристоф (3 июня 2021 г.). «Отказ Комиссии ЕС отказаться от фильтров». Фонд электронных границ . Проверено 21 августа 2022 г.
- ^ «Фильтры загрузки: опасность для бесплатного интернет-контента?». Цифровой гид IONOS . 28 марта 2019 г. . Проверено 21 августа 2022 г.
- ^ «Борьба с незаконными высказываниями, разжигающими ненависть в Интернете: первая оценка нового кодекса поведения» . ec.europa.eu . 6 декабря 2016 года . Проверено 21 августа 2022 г.
- ^ «Кодекс поведения ЕС по противодействию незаконным высказываниям, разжигающим ненависть в Интернете | Европейская комиссия» . Ec.europa.eu . Проверено 29 августа 2022 г.
- ^ «Свод правил по дезинформации | Формирование цифрового будущего Европы» . 26 сентября 2018 г.
- ^ «Свод правил по дезинформации 2022 года | Формирование цифрового будущего Европы» . 24 марта 2023 г.
- ^ «Процедурный файл: 2014/2256 (INI) | Законодательная обсерватория | Европейский парламент» .
- ^ СООБЩЕНИЕ КОМИССИИ ЕВРОПЕЙСКОМУ ПАРЛАМЕНТУ И СОВЕТУ. Руководство по статье 17 Директивы 2019/790 об авторском праве на едином цифровом рынке.
- ^ «Террористический контент в Интернете» .
- ^ Рейтер, Маркус; Рудль, Томас; Рау, Франциска; Хильдебр, Холли. «Почему контроль чата так опасен». Европейские цифровые права (EDRI) . Проверено 21 августа 2022 г.
- ↑ Уодделл, Каве (22 июня 2016 г.). «Инструмент для удаления видеороликов с обезглавливанием еще до того, как они появятся в Интернете». Атлантический океан . Проверено 10 сентября 2016 г.
- ^ «Партнерство в целях сдерживания распространения террористического контента в Интернете | Отдел новостей Facebook» . Проверено 6 декабря 2016 г.
- ^ Абельсон, Хэл; Андерсон, Росс; Белловин, Стивен М.; Бенало, Джош; Блейз, Мэтт; Каллас, Джон; Диффи, Уитфилд; Ландау, Сьюзен; Нойманн, Питер Г.; Ривест, Рональд Л.; Шиллер, Джеффри И.; Шнайер, Брюс; Тиг, Ванесса; Тронкосо, Кармела (14 октября 2021 г.). «Ошибки в наших карманах: риски сканирования на стороне клиента». arXiv : 2110.07450 [cs.CR].
- ↑ Хилл, Кашмир (21 августа 2022 г.). «Папа сфотографировал своего обнаженного малыша для врача. Google пометил его как преступника» . Нью-Йорк Таймс . ISSN 0362-4331 . Проверено 21 августа 2022 г.
Более крупный прорыв произошел почти десять лет спустя, в 2018 году, когда Google разработал инструмент с искусственным интеллектом, который мог распознавать ранее не встречавшиеся эксплуататорские изображения детей.
[...] Когда фотографии Марка и Кассио были автоматически загружены с их телефонов на серверы Google, эта технология пометила их.
- ^ «Google пометил фотографии больных детей родителей как сексуальное насилие» . Гизмодо . 22 августа 2022 г. . Проверено 28 августа 2022 г.
По данным Google, эти отчеты об инцидентах поступают из нескольких источников, не ограничиваясь автоматизированным инструментом PhotoDNA.
- ↑ Рот, Эмма (21 августа 2022 г.). «ИИ Google пометил аккаунты родителей на предмет возможного насилия над обнаженными фотографиями их больных детей». Грань . Проверено 28 августа 2022 г.
Google использовал сопоставление хешей с PhotoDNA от Microsoft для сканирования загруженных изображений для обнаружения совпадений с известным CSAM.
[...] В 2018 году Google объявила о запуске своего набора инструментов искусственного интеллекта Content Safety API, который может «активно идентифицировать никогда ранее не встречавшиеся изображения CSAM, чтобы их можно было просмотреть и, в случае подтверждения как CSAM, удалить и сообщить как можно быстрее». ."
Он использует этот инструмент для своих собственных сервисов и, наряду с решением для сопоставления хэшей CSAI Match, разработанным инженерами YouTube, предлагает его также для использования другими.
- ^ «Неудачная правда о детской порнографии и Интернете [Очерк]» . 7 декабря 2012 г.
- ^ Эхер, Рейнхард; Крейг, Лим А.; Майнер, Майкл Х.; Пфеффлин, Фридеманн (2011). Международные перспективы оценки и лечения сексуальных преступников: теория, практика и исследования. Джон Уайли и сыновья. п. 514. ИСБН 978-1119996200.
- ^ Латтанци-Лихт, Марсия; Дока, Кеннет (2004). Жизнь с горем: справиться с общественной трагедией. Рутледж. п. 317. ИСБН 1135941513.
- ↑ Артур, Чарльз (22 июля 2013 г.). «Twitter представит систему PhotoDNA для блокировки изображений насилия над детьми» . Хранитель . Проверено 22 июля 2013 г.
- ↑ Смит, Кэтрин (2 мая 2011 г.). «Facebook использует Microsoft PhotoDNA для удаления детской порнографии». Хаффингтон Пост . Проверено 22 июля 2013 г.
- ^ «Adobe и PhotoDNA». www.adobe.com . Проверено 27 августа 2021 г.
- ^ «Reddit использует PhotoDNA для предотвращения детской порнографии». 19 марта 2020 г.
- ^ «Отчет о прозрачности Discord: июль — декабрь 2020 г.» . Дискорд-блог . 2 апреля 2021 г. . Проверено 8 мая 2022 г.
- ^ «Подсказка Microsoft побудила полицию арестовать мужчину из-за изображений жестокого обращения с детьми» . Хранитель . 7 августа 2014 г.
- ^ Сальцито, Энтони (17 декабря 2009 г.). «Microsoft жертвует технологию PhotoDNA, чтобы сделать Интернет более безопасным для детей» . Проверено 22 июля 2013 г.
Внешние ссылки