Apple stäms – har inte infört system mot barnpornografiskt material

Teknikjätten Apple stäms för att bolaget valt att inte implementera ett system som skulle skannat iCloud-foton efter material som innehåller sexuella övergrepp mot barn, rapporterar New York Times.
Apple logga
Apple stäms. Foto: Matthias Schrader/TT

Stämningen hävdar att Apple inte gör tillräckligt för att förhindra spridningen av sådant material, vilket tvingar offren att återuppleva sina trauman. Apple aviserade ett nytt system som skulle skydda barn, men misslyckas med att implementera detta.

Systemet tillkännagavs systemet första gången 2021 och förklarade att det skulle använda sig av digitala signaturer från National Center for Missing and Exploited Childen och andra grupper för att upptäcka känt CSAM-innehåll i användarnas iCloud-bibliotek.

Enligt New York Times stäms bolaget av en privatperson vars släkting antastade henne som spädbarn och sedan delade bilder av henne online.

Läs även:
Förvaltaren flyr risk och fyller ‘fegis-portföljen’ med läkemedel: ”Driver förmögenhet”

Dela:

Kommentera artikeln

I samarbete med Ifrågasätt Media Sverige AB (”Ifrågasätt”) erbjuder Afv möjlighet för läsare att kommentera artiklar. Det är alltså Ifrågasätt som driver och ansvarar för kommentarsfunktionen. Afv granskar inte kommentarerna i förväg och kommentarerna omfattas inte av Affärsvärldens utgivaransvar. Ifrågasätts användarvillkor gäller.

Grundreglerna är:

  • Håll dig till ämnet
  • Håll en respektfull god ton

Såväl Ifrågasätt som Afv har rätt att radera kommentarer som inte uppfyller villkoren.



Annons från SciBase