Eredetileg itt jelent meg: Átverhető-e az Apple NeuralHash-alapú CSAM felismerője? - Szifon.com
Néhány hete röppent fel a hír, hogy az Apple egy olyan funkciót fog az iOS 15-be építeni az amerikai piacon az iCloud Fotók esetén, ami képes gyermekpornográfiának (CSAM, azaz Child Sexual Abuse Material) minősülő képek automatikus keresésére és jelentésére a készüléken. A lépést világszerte kritizálták mind technológiai, mind etikai szempontból. Korábbi cikkünkben már írtunk arról,…