stringtranslate.com

ФотоДНК

PhotoDNA — это запатентованная технология идентификации изображений и фильтрации контента [1], широко используемая поставщиками онлайн-услуг . [2] [3]

История

PhotoDNA была разработана Microsoft Research и Хани Фаридом , профессором Дартмутского колледжа , начиная с 2009 года. Из базы данных известных изображений и видеофайлов она создает уникальные хэши для представления каждого изображения, которые затем можно использовать для идентификации других экземпляров этих изображений. . [4]

Первоначально метод хеширования основывался на преобразовании изображений в черно-белый формат, разделении их на квадраты и количественной оценке затенения квадратов [5] не использовал технологию распознавания лиц и не мог идентифицировать человека или объект на изображении. изображение. [ нужна цитация ] Метод стремился быть устойчивым к изменениям изображения, включая изменение размера и незначительные изменения цвета. [4] С 2015 года [6] аналогичные методы используются для отдельных видеокадров в видеофайлах. [7]

Microsoft передала [ не удалось проверить ] технологию PhotoDNA проекту VIC , который управляется и поддерживается Международным центром по пропавшим и эксплуатируемым детям (ICMEC) и используется в рамках операций цифровой криминалистики [8] [9] путем хранения «отпечатков пальцев», которые могут быть используется для уникальной идентификации отдельной фотографии. [9] [10] База данных содержит хэши миллионов элементов. [11]

В декабре 2014 года Microsoft бесплатно предоставила PhotoDNA квалифицированным организациям в виде модели «программное обеспечение как услуга» через Azure Marketplace . [12]

В 2010-х и 2020-х годах PhotoDNA была выдвинута в связи с политическими предложениями, касающимися модерации контента и интернет-цензуры , [13] включая слушания в Сенате США (2019 г. по «цифровой ответственности», [2] 2022 г. по Закону EARN IT [14] ) и различные предложения Европейской комиссии, названные гражданским обществом « фильтрами загрузки » [15] [16], такие как так называемые добровольные кодексы (в 2016 году [17] по разжиганию ненависти [18] после событий 2015 года , 2018 года [19] и 2022 г. [20] о дезинформации), законодательство об авторском праве (в основном директива об авторском праве 2019 г., обсуждавшаяся в период с 2014 г. [21] по 2021 г. [22] ), правила, связанные с терроризмом (TERREG) [23] и правила прослушивания интернет-телефонных сообщений (2021 г. «контроль чата»). . [24]

В 2016 году Хани Фарид предложил распространить использование этой технологии на контент, связанный с терроризмом . [25] В декабре 2016 года Facebook, Twitter, Google и Microsoft объявили о планах использовать PhotoDNA для удаления экстремистского контента, такого как видео с вербовкой террористов или изображения жестоких террористов. [26] В 2018 году Facebook заявил, что PhotoDNA использовалась для автоматического удаления видео Аль-Каиды . [13]

К 2019 году крупные технологические компании, включая Microsoft, Facebook и Google, публично объявили, что с 2017 года они используют GIFCT как общую базу данных контента, подлежащего автоматической цензуре. [2] Считалось , что по состоянию на 2021 год Apple будет использовать NeuralHash для аналогичных целей. [27]

В 2022 году The New York Times рассказала историю двух отцов, чьи учетные записи Google были закрыты после того, как фотографии своего ребенка, сделанные ими в медицинских целях, были автоматически загружены на серверы Google. [28] В статье PhotoDNA, для которой требуется база данных известных хэшей, сравнивается с технологией Google на основе искусственного интеллекта, которая может распознавать ранее невиданные эксплуататорские изображения. [29] [30]

Применение

Первоначально Microsoft использовала PhotoDNA в своих собственных сервисах, включая Bing и OneDrive . [31] По состоянию на 2022 год PhotoDNA широко использовалась поставщиками онлайн-услуг для модерации контента [10] [32] [33], включая Gmail Google , Twitter , [ 34] Facebook , [35] Adobe Systems , [36 ] ] Reddit , [37] Дискорд . [38]

Британский фонд Internet Watch Foundation , который собирал справочную базу данных сигнатур PhotoDNA, как сообщается, располагал более чем 300 000 хешей известных материалов о сексуальной эксплуатации детей. [ нужна ссылка ] Другим источником базы данных был Национальный центр по делам пропавших и эксплуатируемых детей (NCMEC). [39] [40]

PhotoDNA широко используется для удаления контента, [2] отключения учетных записей и сообщения о людях. [7]

Смотрите также

Рекомендации

  1. ^ Дуз, Маттейс; Толиас, Гиоргос; Пицци, Эд; Папакипос, Зоя; Шануссо, Ловик; Раденович, Филип; Дженичек, Томас; Максимов, Максим; Леаль-Теше, Лаура; Элези, Исмаил; Чум, Ондржей; Феррер, Кристиан Кантон (21 февраля 2022 г.). «Набор данных и задача по сходству изображений 2021 года». arXiv : 2106.09672 [cs.CV]. Отпечатки изображений, такие как PhotoDNA от Microsoft, используются во всей отрасли для идентификации изображений, изображающих эксплуатацию и жестокое обращение с детьми.
  2. ^ abcd «Рост картелей содержания». сайт Knightcolumbia.org . 11 февраля 2020 г. . Проверено 21 августа 2022 г.
  3. Хилл, Кашмир (21 августа 2022 г.). «Папа сфотографировал своего обнаженного малыша для врача. Google пометил его как преступника» . Нью-Йорк Таймс . ISSN  0362-4331 . Проверено 21 августа 2022 г.
  4. ^ ab «Новая технология борется с детской порнографией, отслеживая ее «ФотоДНК»» . Корпорация Майкрософт. 15 декабря 2009 года . Проверено 9 сентября 2016 г.
  5. ^ «Фото ДНК: Шаг за шагом» . Майкрософт. Архивировано из оригинала 21 сентября 2013 года . Проверено 11 февраля 2014 г.
  6. ^ «Как PhotoDNA для видео используется для борьбы с эксплуатацией детей в Интернете» . 12 сентября 2018 г.
  7. ^ ab «Как PhotoDNA для видео используется для борьбы с эксплуатацией детей в Интернете» . news.microsoft.com. 12 сентября 2018 г.
  8. Джексон, Уильям (27 августа 2014 г.). «Улучшенные инструменты анализа изображений ускоряют случаи эксплуатации детей». ГЦН.
  9. ^ Аб Кларк, Лиат (30 апреля 2014 г.). «Технология отслеживания жестокого обращения с детьми передана в дар всему миру» . Проводная Великобритания .
  10. ^ ab «Ответ Microsoft на консультацию по Сообщению Европейской комиссии о правах ребенка (2011–2014 гг.)» (PDF) . Архивировано из оригинала (PDF) 24 октября 2017 г., Европейская комиссия
  11. Уорд, Марк (23 марта 2014 г.). «Облачный инструмент архивирования, который поможет поймать насильников над детьми». Новости BBC .
  12. ^ «Облачный сервис PhotoDNA». Microsoft.com . Корпорация Майкрософт . Проверено 19 февраля 2015 г.
  13. ^ аб Ричард Аллан (18 июня 2018 г.). «Слушание в 11:14».в «Горизонтальной нормативной базе ЕС по удалению незаконного контента в DSM».
  14. ^ Чт; Сока, 10 февраля 2022 г., 15:30 — Берин; Кон, Ари (10 февраля 2022 г.). «Десять главных ошибок, допущенных сенаторами во время сегодняшней разметки EARN IT». Техдирт . Проверено 21 августа 2022 г.{{cite web}}: CS1 maint: числовые имена: список авторов ( ссылка )
  15. Шмон, Кристоф (3 июня 2021 г.). «Отказ Комиссии ЕС отказаться от фильтров». Фонд электронных границ . Проверено 21 августа 2022 г.
  16. ^ «Фильтры загрузки: опасность для бесплатного интернет-контента?». Цифровой гид IONOS . 28 марта 2019 г. . Проверено 21 августа 2022 г.
  17. ^ «Борьба с незаконными высказываниями, разжигающими ненависть в Интернете: первая оценка нового кодекса поведения» . ec.europa.eu . 6 декабря 2016 года . Проверено 21 августа 2022 г.
  18. ^ «Кодекс поведения ЕС по противодействию незаконным высказываниям, разжигающим ненависть в Интернете | Европейская комиссия» . Ec.europa.eu . Проверено 29 августа 2022 г.
  19. ^ «Свод правил по дезинформации | Формирование цифрового будущего Европы» . 26 сентября 2018 г.
  20. ^ «Свод правил по дезинформации 2022 года | Формирование цифрового будущего Европы» . 24 марта 2023 г.
  21. ^ «Процедурный файл: 2014/2256 (INI) | Законодательная обсерватория | Европейский парламент» .
  22. ^ СООБЩЕНИЕ КОМИССИИ ЕВРОПЕЙСКОМУ ПАРЛАМЕНТУ И СОВЕТУ. Руководство по статье 17 Директивы 2019/790 об авторском праве на едином цифровом рынке.
  23. ^ «Террористический контент в Интернете» .
  24. ^ Рейтер, Маркус; Рудль, Томас; Рау, Франциска; Хильдебр, Холли. «Почему контроль чата так опасен». Европейские цифровые права (EDRI) . Проверено 21 августа 2022 г.
  25. Уодделл, Каве (22 июня 2016 г.). «Инструмент для удаления видеороликов с обезглавливанием еще до того, как они появятся в Интернете». Атлантический океан . Проверено 10 сентября 2016 г.
  26. ^ «Партнерство в целях сдерживания распространения террористического контента в Интернете | Отдел новостей Facebook» . Проверено 6 декабря 2016 г.
  27. ^ Абельсон, Хэл; Андерсон, Росс; Белловин, Стивен М.; Бенало, Джош; Блейз, Мэтт; Каллас, Джон; Диффи, Уитфилд; Ландау, Сьюзен; Нойманн, Питер Г.; Ривест, Рональд Л.; Шиллер, Джеффри И.; Шнайер, Брюс; Тиг, Ванесса; Тронкосо, Кармела (14 октября 2021 г.). «Ошибки в наших карманах: риски сканирования на стороне клиента». arXiv : 2110.07450 [cs.CR].
  28. Хилл, Кашмир (21 августа 2022 г.). «Папа сфотографировал своего обнаженного малыша для врача. Google пометил его как преступника» . Нью-Йорк Таймс . ISSN  0362-4331 . Проверено 21 августа 2022 г. Более крупный прорыв произошел почти десять лет спустя, в 2018 году, когда Google разработал инструмент с искусственным интеллектом, который мог распознавать ранее не встречавшиеся эксплуататорские изображения детей. [...] Когда фотографии Марка и Кассио были автоматически загружены с их телефонов на серверы Google, эта технология пометила их.
  29. ^ «Google пометил фотографии больных детей родителей как сексуальное насилие» . Гизмодо . 22 августа 2022 г. . Проверено 28 августа 2022 г. По данным Google, эти отчеты об инцидентах поступают из нескольких источников, не ограничиваясь автоматизированным инструментом PhotoDNA.
  30. Рот, Эмма (21 августа 2022 г.). «ИИ Google пометил аккаунты родителей на предмет возможного насилия над обнаженными фотографиями их больных детей». Грань . Проверено 28 августа 2022 г. Google использовал сопоставление хешей с PhotoDNA от Microsoft для сканирования загруженных изображений для обнаружения совпадений с известным CSAM. [...] В 2018 году Google объявила о запуске своего набора инструментов искусственного интеллекта Content Safety API, который может «активно идентифицировать никогда ранее не встречавшиеся изображения CSAM, чтобы их можно было просмотреть и, в случае подтверждения как CSAM, удалить и сообщить как можно быстрее». ." Он использует этот инструмент для своих собственных сервисов и, наряду с решением для сопоставления хэшей CSAI Match, разработанным инженерами YouTube, предлагает его также для использования другими.
  31. ^ «Неудачная правда о детской порнографии и Интернете [Очерк]» . 7 декабря 2012 г.
  32. ^ Эхер, Рейнхард; Крейг, Лим А.; Майнер, Майкл Х.; Пфеффлин, Фридеманн (2011). Международные перспективы оценки и лечения сексуальных преступников: теория, практика и исследования. Джон Уайли и сыновья. п. 514. ИСБН 978-1119996200.
  33. ^ Латтанци-Лихт, Марсия; Дока, Кеннет (2004). Жизнь с горем: справиться с общественной трагедией. Рутледж. п. 317. ИСБН 1135941513.
  34. Артур, Чарльз (22 июля 2013 г.). «Twitter представит систему PhotoDNA для блокировки изображений насилия над детьми» . Хранитель . Проверено 22 июля 2013 г.
  35. Смит, Кэтрин (2 мая 2011 г.). «Facebook использует Microsoft PhotoDNA для удаления детской порнографии». Хаффингтон Пост . Проверено 22 июля 2013 г.
  36. ^ «Adobe и PhotoDNA». www.adobe.com . Проверено 27 августа 2021 г.
  37. ^ «Reddit использует PhotoDNA для предотвращения детской порнографии». 19 марта 2020 г.
  38. ^ «Отчет о прозрачности Discord: июль — декабрь 2020 г.» . Дискорд-блог . 2 апреля 2021 г. . Проверено 8 мая 2022 г.
  39. ^ «Подсказка Microsoft побудила полицию арестовать мужчину из-за изображений жестокого обращения с детьми» . Хранитель . 7 августа 2014 г.
  40. ^ Сальцито, Энтони (17 декабря 2009 г.). «Microsoft жертвует технологию PhotoDNA, чтобы сделать Интернет более безопасным для детей» . Проверено 22 июля 2013 г.

Внешние ссылки