Veröffentlicht am: 17. Februar 2025

Berichtszeitraum: 17. Februar 2024–31. Dezember 2024

Über diesen Transparenzbericht.

Adobe Software Systems Ireland („Adobe“ oder „wir“) teilt das Ziel der Europäischen Kommission, das Internet durch Transparenz und Verantwortlichkeit sicherer zu machen. Gemäß Paragraf 15 und 24 des Gesetzes über digitale Dienste („DSA“ oder „Verordnung“) der Europäischen Union („EU“) veröffentlicht Adobe seinen ersten Transparenzbericht („Bericht“) für Produkte und Services, die wir als im Geltungsbereich der Verordnung liegend eingestuft haben. Adobe bietet eine Vielzahl von Produkten und Services an, von Abo-basierten Tools für die Zusammenarbeit in Unternehmen bis hin zu kostenlosen mobilen Apps für die Fotobearbeitung. Wir prüfen kontinuierlich, ob unsere Angebote in den Anwendungsbereich des DSA fallen. Dieser Bericht beschreibt unsere Bemühungen zur Content-Moderation in der EU über unser vielfältiges Angebot hinweg, in Übereinstimmung mit unseren Allgemeinen Nutzungsbedingungen, Content-Richtlinien und produktspezifischen Community-Richtlinien (zusammen „Richtlinien“). Er liefert detaillierte Kennzahlen zu diesen Bemühungen für den Berichtszeitraum vom 17. Februar 2024 bis zum 31. Dezember 2024.

Wir verpflichten uns, unsere Richtlinien und Prozesse regelmäßig zu aktualisieren und diesen Bericht jährlich gemäß unseren Verpflichtungen aus dieser Verordnung zu veröffentlichen. Weitere Informationen zu unserem Ansatz für Content-Moderation und zum DSA findest du in unserem Transparency Center.

Dieser Bericht umfasst folgende Informationen:

1. Anordnungen von Behörden der Mitgliedstaaten

2. Meldungen gemäß Paragraf 16

3. Content-Moderation auf Initiative von Adobe hin

4. Beschwerden durch interne Beschwerde-Management-Systeme von Adobe

5. Außergerichtliche Streitbeilegungen

6. Gemäß Paragraf 23 verhängte Sperrungen zur Eindämmung von Missbrauch

7. Durchschnittliche Zahl monatlich aktiver Benutzerinnen und Benutzer

Abschnitt 1: Anordnungen von Behörden der Mitgliedstaaten (Paragraf 15(1)(a)).

In diesem Abschnitt ist der Umfang der Anfragen beschrieben, die Adobe von Strafverfolgungsbehörden, Gerichten und anderen Regierungsbehörden in der EU erhalten hat, um Content zu entfernen oder Benutzerinformationen gemäß Paragraf 9 und 10 bereitzustellen.

1.1 Behördliche Anordnungen aus EU-Mitgliedstaaten zur Entfernung von Inhalten.

Adobe hat im Berichtszeitraum keine Anordnungen von Gerichten oder Regierungsbehörden in der EU zur Entfernung von Inhalten erhalten.

1.2 Anfragen nach Benutzerdaten aus EU-Mitgliedstaaten.

Anfragen nach Benutzerdaten umfassen Anordnungen gemäß lokalem Recht, Ersuchen von Strafverfolgungsbehörden sowie Notfallanfragen. Unser Trust & Safety-Team prüft diese Anfragen sorgfältig, um die Gültigkeit des Rechtsverfahrens zu beurteilen, die Verhältnismäßigkeit der Anfrage einzuschätzen und die Einhaltung internationaler Datenschutzverpflichtungen von Adobe sicherzustellen. Weitere Informationen darüber, wie Adobe mit Anfragen zu Benutzerdaten umgeht, findest du in unseren Richtlinien zu Anfragen von Behörden und Dritten nach Benutzerdaten.

Die folgende Tabelle bietet einen Überblick über die Anzahl der Anfragen nach Benutzerdaten, die Adobe von Behörden der EU-Mitgliedstaaten erhalten hat, sowie darüber, ob im Berichtszeitraum Informationen bereitgestellt wurden.

Tabelle 1.2.1: Anfragen nach Benutzerdaten von Behörden der EU-Mitgliedstaaten
Land
Anfragen
Anfragen, bei denen Informationen bereitgestellt wurden
Frankreich
5
0
Deutschland
25
8
Irland
3
2
Slowakei
1
1
Spanien
3
0

Durchschnittliche Zeit bis zur Eingangsbestätigung: <1 Tag

Durchschnittliche Zeit bis zur Umsetzung der Anordnungen: <3 Tage

Abschnitt 2: Eingegangene Meldungen gemäß Paragraf 16 (Paragraf 15(1)(b)).

Adobe hat Prozesse eingerichtet, die es jedem in der EU, einschließlich Benutzerinnen bzw. Benutzern, Nicht-Benutzerinnen bzw. Nicht-Benutzern, vertrauenswürdigen Hinweisgeberinnen und Hinweisgebern gemäß Paragraf 22 und anderen Einrichtungen, ermöglichen, Content zu melden, der ihrer Meinung nach gegen das Recht der Mitgliedstaaten gemäß Paragraf 16 verstößt. Wenn wir solche spezifischen Meldungen erhalten, überprüfen wir den gemeldeten Content gemäß unseren Richtlinien und ergreifen angemessene Maßnahmen. Verstößt der gemeldete Content nicht gegen die Richtlinien von Adobe, prüfen wir ihn auf Rechtmäßigkeit anhand der bereitgestellten Informationen und können gegebenenfalls den Zugang zum Content in der betreffenden Rechtsordnung einschränken. Meldungen auf Basis von Paragraf 16 werden manuell von den Adobe-Teams Trust & Safety und IP geprüft und nicht automatisiert für betroffene Produkte oder Services von Adobe verarbeitet.

Vertrauenswürdige Hinweisgeberinnen bzw. Hinweisgeber, die von der Koordinatorin bzw. dem Koordinator für digitale Dienste des Mitgliedstaats, in dem sie niedergelassen sind, benannt wurden, können, wie oben beschrieben, mutmaßlich illegalen Content gemäß Paragraf 22 melden. Adobe hat bis zum 31. Dezember 2024 keine Meldungen von benannten vertrauenswürdigen Hinweisgeberinnen bzw. Hinweisgebern erhalten.

2.1 Anzahl der gemäß Paragraf 16 eingereichten Meldungen nach Kategorie des mutmaßlich illegalen Contents.2

Die folgende Tabelle bietet Informationen über die Anzahl der Meldungen, die von EU-Benutzerinnen und -Benutzern gemäß Paragraf 16 während des Berichtszeitraums eingereicht wurden, aufgeschlüsselt nach Kategorie des mutmaßlich illegalen Contents und Produkt/Service.

Anzahl der gemäß Paragraf 16 eingegangenen Meldungen
Art des mutmaßlich illegalen Contents
Adobe Commerce Cloud
Adobe Document Cloud
Adobe Express
Adobe InDesign
Adobe Stock
Behance
Schutz von Kindern
0
0
0
0
2
0
Geistiges Eigentum
36
3
1
1
233
456

2.2 Anzahl der Maßnahmen als Reaktion auf Meldungen gemäß Paragraf 16.3

Die folgende Tabelle gibt Aufschluss über die Anzahl der Maßnahmen4, die während des Berichtszeitraums als Reaktion auf Meldungen von EU-Benutzerinnen und -Benutzern gemäß Paragraf 16 ergriffen wurden. Die Aufschlüsselung erfolgt nach Maßnahmen, die aufgrund von Verstößen gegen Adobe-Richtlinien ergriffen wurden, und Content, der nach lokalem Recht als illegal eingestuft wurde.

Adobe-Produkt oder -Service
Aufgrund von Verstößen gegen Adobe-Richtlinien ergriffene Maßnahmen
Ergriffene Maßnahmen aufgrund von Content, der nach lokalem Recht als illegal eingestuft wurden
Adobe Commerce
0
143
Adobe Document Cloud
0
4
Adobe InDesign
0
1
Adobe Stock
17
1.663
Behance
0
242

2.3 Durchschnittliche Reaktionszeit bei Content, der in Meldungen gemäß Paragraf 16 identifiziert wurde.5

Die nachstehende Tabelle informiert über die durchschnittliche Zeit, die Adobe benötigt, um bei Content, der in Meldungen gemäß Paragraf 16 identifiziert wurde, Maßnahmen zu ergreifen. Die Aufschlüsselung erfolgt nach Produkt bzw. Service.

Adobe-Produkt oder -Service
Durchschnittliche Reaktionszeit
Adobe Commerce
8–9 Tage
Adobe Document Cloud
1–2 Tage
Adobe InDesign
4–5 Tage
Adobe Stock
<1 Tag
Behance
<1 Tag

Abschnitt 3: Content-Moderation auf Initiative von Adobe hin.

3.1 Proaktive Content-Moderation.

Adobe ist überzeugt: Um kreativitätsfördernde und vertrauenswürdige Communitys zu fördern, braucht es klare Verhaltensregeln und verlässliche Prozesse für die Durchsetzung dieser Regeln. Unsere Richtlinien, die in unserem Transparency Center einsehbar sind, legen Standards für das Nutzerverhalten über alle Adobe-Produkte und -Services hinweg fest. Wir entdecken richtlinienwidrige und mutmaßlich illegalen Content durch In-Product-Meldungen, unsere öffentlich zugänglichen Meldekanäle und mithilfe automatisierter Technologien.

Wenn Content gegen unsere Richtlinien verstößt, gehen wir weltweit dagegen vor. Obwohl unsere Richtlinien in der Regel auch örtlich illegales Material abdecken, verpflichtet sich Adobe zudem, die geltenden Gesetze der EU und ihrer Mitgliedstaaten zu respektieren. Stellen wir fest, dass Content gegen örtliches Recht verstößt, aber nicht anderweitig unsere Richtlinien verletzt, können wir ihn lokal durch Sperrung in der betreffenden Gerichtsbarkeit deaktivieren.

Mechanismen zur Content-Meldung.

In-Product-Meldung.

Bei vielen Adobe-Produkten und -Services können Benutzerinnen und Benutzer Content, der ihrer Meinung nach gegen unsere Richtlinien verstößt, über In-Product-Meldeoptionen melden. Diese Meldeoptionen sind nach Produkt aufgeschlüsselt hier aufgeführt. Für alle anderen Produkte und Services kann jede Person jederzeit unter abuse@adobe.com eine Meldung an das Trust & Safety-Team von Adobe senden. Geht bei uns eine Meldung zu einem möglichen Richtlinienverstoß ein, prüft unser Team den gemeldeten Content und entscheidet, ob Maßnahmen erforderlich sind.

Meldeformulare.

Jeder Mensch in der EU kann Content in Adobe-Produkten oder -Services melden, der nach seiner Ansicht gegen geltende Gesetze der EU oder ihrer Mitgliedstaaten verstößt. Nutze dafür unser Meldeformular für illegalen Content. Wir bitten dich, zusätzliche Informationen über den vermeintlich illegalen Content bereitzustellen, einschließlich der Grundlage für die Meldung und des Landes, in dem du den Gesetzesverstoß vermutest. Geht bei uns eine Meldung zu einem möglichen Richtlinienverstoß ein, prüft unser Team den gemeldeten Content und entscheidet, ob Maßnahmen erforderlich sind.

Du kannst eine Verletzung geistigen Eigentums weltweit über unser Meldeformular für Urheberrechtsverletzungen melden. Wir akzeptieren auch Mitteilungen per Post oder Fax, wie in unserer Richtlinie zur Entfernung von geistigem Eigentum beschrieben.

Richtlinie zur Entfernung von geistigem Eigentum.

Bei Adobe respektieren wir die geistigen Eigentumsrechte anderer und erwarten das Gleiche von unseren Benutzerinnen und Benutzern. Wie oben dargelegt, gelten Verletzungen dieser Rechte, egal in welchen Produkt oder Service von Adobe, als Verstoß gegen unsere Richtlinien. Nach Eingang einer vollständigen und rechtswirksamen Meldung entfernen wir die betreffenden Inhalte. Wird gegen eine Person eine solche Meldung eingereicht, erhält sie einen „Strike“ auf ihr Konto. Nach drei „Strikes“ innerhalb von zwölf Monaten wird das Konto dauerhaft gekündigt. Weitere Details findest du in unserer Richtlinie zur Entfernung von geistigem Eigentum.

Erkennung missbräuchlichen Contents.

Um unsere Richtlinien weltweit durchzusetzen, nutzt Adobe verschiedene Tools und Mechanismen, um potenziell regelwidrigen Content auf unseren Servern zu erkennen und zu entfernen. Wir wenden unterschiedliche Maßnahmen an, je nachdem, ob der betreffende Content auf einer Online-Plattform veröffentlicht wurde (wie auf Behance), über einen öffentlich zugänglichen Link geteilt wurde (wie über eine öffentliche Adobe Express-Seite, zusammen als „öffentlich zugänglicher Content“ bezeichnet) oder ob der Content in einem privaten Cloud-Speicher aufbewahrt wird. Für lokal gespeicherten Content setzen wir keine dieser Maßnahmen ein.

Vollautomatisierte Tools.

Unsere automatisierten Tools nutzen verschiedene Signale, um öffentlich zugänglichen Content, der möglicherweise gegen unsere Richtlinien verstößt, zu erkennen und zu entfernen. Diese Tools ermöglichen es uns beispielsweise, Betrug, Phishing und Spam-Inhalte in Produkten wie Adobe Express automatisch zu erkennen und zu entfernen. Zudem können wir damit Inhalte auf Behance aufspüren und entfernen, die gegen unsere Richtlinien zu Nacktheit, Gewalt oder Blut verstoßen könnten. Klassifikatoren bewerten Texte, Bilder und Videos in unseren Produkten und Services. Basierend auf diesen Bewertungen wird der Content entfernt. Content in privaten Speicherbereichen wird niemals automatisch gelöscht. Der Einsatz dieser automatisierten Modelle hilft uns, problematischen Content schneller zu erkennen und Entscheidungen zur Durchsetzung unserer Richtlinien zügiger zu treffen. So tragen wir dazu bei, unsere Community-Plattformen sicher zu gestalten.

Hybride Tools.

Zusätzlich zur vollautomatischen Entfernung von Inhalten ergänzen wir in einigen Fällen die automatische Erkennung von regelwidrigen, öffentlich zugänglichem Content durch menschliche Überprüfung. So stellen wir die Genauigkeit unserer Maßnahmen sicher. Klassifikatoren bewerten Texte, Bilder und Videos in unseren Produkten und Services. Unser Trust & Safety-Team überprüft den erkannten Content und leitet angemessene Schritte ein. In allen Fällen erfolgt eine menschliche Überprüfung des Contents erst, nachdem dieser von unseren Erkennungsmodellen markiert oder von jemandem gemeldet wurde. Dieses hybride Überprüfungssystem setzen wir auch im Kampf gegen den sexuellen Missbrauch von Kindern ein. Gleiches gilt für Content, der möglicherweise in privaten Cloud-Speichern abgelegt ist, wie unten näher erläutert.

Tools zur Bekämpfung von Material mit sexuellem Missbrauch von Kindern.

  • Adobe setzt sich mit Nachdruck dafür ein, Kinder im Internet zu schützen und einen Beitrag zur Bekämpfung der Verbreitung von Material mit sexuellem Missbrauch von Kindern (Child Sexual Abuse Material, CSAM) zu leisten. Wir verfolgen eine Null-Toleranz-Politik gegenüber jeglichem Material, das auf unsere Server hochgeladen wird – sei es öffentlich zugänglich oder in privaten Speicherbereichen – und Kinder sexualisiert, sexuell ausbeutet oder gefährdet. Im Rahmen dieser Bemühungen setzen wir verschiedene Mechanismen ein, die automatische Content-Erkennung mit menschlicher Überprüfung kombinieren:
    • Wir nutzen verschiedene Methoden zur Erkennung von CSAM, wie fortschrittliche Machine-Learning-Modelle und Hash-Matching-Technologie. Diese Scans ermöglichen es uns, digitale Signaturen (oder „Hashes“) von Bildern und Videos, die von Adobe-Benutzerinnen und -Benutzern auf unsere Server hochgeladen werden, mit Datenbanken bekannter CSAM-Hashes zu vergleichen. Adobe meldet alle bestätigten CSAM-Fälle an das National Center for Missing and Exploited Children (NCMEC). Unser Trust & Safety-Team überprüft sämtliches an das NCMEC gemeldetes Material, um ein Höchstmaß an Genauigkeit und Qualität aller Meldungen zu gewährleisten.
    • Unser Trust & Safety-Team überprüft, meldet und entfernt dann CSAM, das durch unsere maschinellen Lernmodelle und Hash-Matching-Technologie sowie durch Benutzerberichte oder Kontenuntersuchungen entdeckt wird. Wir teilen Hashes von zuvor unentdecktem CSAM mit der vom NCMEC verwalteten Branchen-Hash-Liste, um die Weiterverbreitung von CSAM auf anderen Plattformen zu verhindern. Außerdem verbessern wir kontinuierlich die CSAM-Erkennung bei Adobe und integrieren Schutzfunktionen in unsere Moderations-Tools.

Durchsetzung von Content-Richtlinien.

Teams für die Durchsetzung von Content-Richtlinien.

Adobe verfügt über mehrere speziell geschulte Teams, die sicherstellen, dass gemeldeter Content in unserem breiten Spektrum von Produkten und Services umgehend überprüft und angemessen bewertet wird:

  • Das Trust & Safety-Team ist für die Moderation von Content in unseren Produkten und Services mit nutzergeneriertem Content (wie Behance) verantwortlich, der gegen die Adobe-Content-Richtlinien verstößt.
  • Außerdem verfügt Adobe Stock über ein eigenes Team, das die eingereichten Inhalte von Mitwirkenden prüft, bevor diese zur Lizenzierung in die Adobe Stock-Kollektion aufgenommen werden.
  • Schließlich haben wir ein Experten-Team für geistiges Eigentum (IP), das speziell dafür geschult ist, Ansprüche wegen Verletzung geistigen Eigentums über alle unsere Produkte und Services hinweg zu bearbeiten.

Unsere Teams für die Durchsetzung von Content-Richtlinien erhalten bereits beim Onboarding eine umfassende Schulung zu verschiedenen Themen und werden regelmäßig über neue Gesetze sowie relevante politische oder historische Kontexte informiert. Bei besonders komplexen Meldungen können sie Rücksprache mit der Führungsebene halten oder den Fall an Expertinnen und Experten aus den Teams für Urheberrecht, Recht & Richtlinien oder Trust & Safety weiterleiten. Diese ziehen bei Bedarf interne oder externe Fachleute hinzu, die sich mit den geltenden Gesetzen in der EU und den Mitgliedstaaten auskennen.

Maßnahmen zu Inhalten und Konten.

Adobe reagiert zeitnah auf Verstöße gegen unsere Richtlinien oder geltendes Recht. Inhalte, die gemeldet oder als potenziell problematisch identifiziert wurden, werden von unseren Trust & Safety-, Stock- und IP-Teams überprüft. Stellt sich dabei ein Verstoß heraus, leiten wir geeignete Maßnahmen ein, die unter anderem Folgendes umfassen können:

  • Globale Deaktivierung: Zunächst prüfen wir Inhalte auf Verstöße gegen unsere Richtlinien. Wird ein Verstoß festgestellt, wird der entsprechende Inhalt weltweit deaktiviert. Das bedeutet, dass er nirgends und für niemanden mehr verfügbar ist.
  • Lokale Sperrung: Wenn Inhalte zwar nicht gegen unsere Richtlinien verstoßen, aber nach geltendem lokalem Recht unzulässig sind, kann Adobe den Zugriff darauf in der jeweiligen Gerichtsbarkeit einschränken. In diesem Fall ist der Inhalt für Benutzerinnen und Benutzer sowie alle anderen in diesem Land nicht sichtbar, bleibt jedoch in anderen Regionen verfügbar.
  • Einschränkung der Verbreitung: Wenn wir die Verbreitung eines Inhalts einschränken, bleibt dieser zwar auf dem jeweiligen Produkt oder Dienst verfügbar, ist jedoch für bestimmte Benutzergruppen möglicherweise nicht sichtbar.

Bei der Entscheidung über geeignete Maßnahmen zur Durchsetzung unserer Content-Richtlinien berücksichtigen wir verschiedene Faktoren. Wie oben beschrieben, können wir je nach Art des Verstoßes oder weiteren kontextspezifischen Umständen entscheiden, Inhalte entweder global zu deaktivieren oder lokal zu sperren. In manchen Fällen lassen wir bestimmte Inhalte auf unseren Produkten und Diensten bestehen, ergreifen jedoch Maßnahmen, damit sie nicht versehentlich gefunden oder von bestimmten Benutzergruppen gesehen werden können.

Bei Verstößen gegen unsere Richtlinien kann Adobe außerdem die Verbreitung oder bestimmte Funktionen eines Kontos einschränken.

Benachrichtigung und Einspruch.

Für alle relevanten Produkte und Dienste informiert Adobe betroffene Benutzerinnen und Benutzer sowie Personen oder Organisationen, die Inhalte gemeldet haben, per E-Mail über durchgeführte Maßnahmen zur Durchsetzung unserer Content-Richtlinien.

Sowohl betroffene Benutzerinnen und Benutzer als auch meldende Personen können gegen unsere Entscheidungen zur Durchsetzung von Content-Richtlinien Einspruch einlegen. Wer der Meinung ist, dass unsere Entscheidung fehlerhaft war, kann über unser Einspruchsformular oder per E-Mail Widerspruch einlegen. In einigen Fällen stehen Benutzerinnen und Benutzern je nach lokalem Recht zusätzliche Beschwerde- oder Rechtsmittel zur Verfügung.

Wenn wir Betroffenen eine E-Mail mit Details zu einer Durchsetzungsmaßnahme senden, fügen wir in der Regel einen Link zu unserem Einspruchsformular bei. Bei Einreichung eines Einspruchs über das Formular erhalten Benutzerin bzw. Benutzer und die meldende Person weitere Updates per E-Mail. Entscheiden sich Betroffene für die Kontaktaufnahme per E-Mail statt über das Einspruchsformular, senden wir ebenfalls weitere Updates per E-Mail.

3.2 Anzahl der von Adobe auf eigene Initiative ergriffenen Maßnahmen zur Content-Moderation.6

Adobe versteht unter in Eigeninitiative ergriffenen Maßnahmen zur Content-Moderation Maßnahmen gegen in der EU verfügbaren Content, der gegen unsere Richtlinien verstößt oder als rechtswidrig eingestuft wird, ohne dass zuvor eine Anordnung nach Paragraf 9 oder eine Meldung nach Paragraf 16 bei Adobe eingegangen ist.

Diese Maßnahmen zur Content-Moderation umfassen sowohl proaktive als auch reaktive Durchsetzung. Proaktive Durchsetzung erfolgt, wenn Adobe-Mitarbeiterinnen bzw. -Mitarbeiter, -Auftragnehmerin bzw. Auftragnehmer oder -Technologien potenziell richtlinienwidrigen Content identifizieren und auf Grundlage unserer Richtlinien dagegen vorgehen. Reaktive Durchsetzung tritt ein, wenn Benutzerinnen bzw. Benutzer oder externe Instanzen Content an Adobe melden und dieser bei Verstoß gegen unsere Richtlinien bearbeitet wird.

Art des Richtlinienverstoßes
Adobe Creative Cloud-Speicherplatz7
Adobe Document Cloud
Adobe Express
Adobe InDesign
Adobe Photoshop Express
Adobe Photoshop Lightroom
Adobe Portfolio
Adobe Stock
Behance
Sexualisierung oder Ausbeutung von Kindern
0
0
0
0
0
0
0
0
374
Betrug oder Phishing
164
537
550
113
0
0
9
0
26
Hasserfüllte Inhalte
0
0
3
0
0
0
0
0
0
Geistiges Eigentum
0
0
0
0
0
0
0
22.342
0
Nacktheit und sexuelle Inhalte
0
0
1
0
479
92
0
0
55.209
Veröffentlichung privater Informationen
0
1
0
0
1
0
0
0
51
Vulgäre Sprache
0
0
0
0
0
40
0
0
26
Regulierte Waren und Dienstleistungen
0
0
0
0
0
0
0
0
1
Spam
83
62
0
0
7
4
0
0
7.710
Gewalt und Blut
0
0
0
0
1
7
0
0
36.862
Sonstiges8
1
2
0
0
7
34
0
61.7209
7

3.3 Anzahl der automatisiert durchgeführten Moderationsmaßnahmen.10

Die folgende Tabelle zeigt die Anzahl der Inhalte, die als direktes Ergebnis automatisierter Durchsetzung entfernt wurden, aufgeschlüsselt nach Produkt bzw. Service. Nicht alle Produkte und Services von Adobe verfügen über automatisierte Durchsetzungsmechanismen.

Anzahl der automatisierten Entfernungen
Art des Regelverstoßes
Adobe Express
Adobe InDesign
Adobe Photoshop Express
Adobe Portfolio
Behance
Betrug oder Phishing
308
113
0
9
0
Nacktheit und sexuelle Inhalte
0
0
139
0
1.758
Gewalt und Blut
0
0
0
0
99
Spam
0
0
0
0
5.979

3.4 Anzahl der Kontobeschränkungen.11

Adobe stellt Konten für seine Produkte und Services auf der sogenannten „Adobe ID“-Ebene bereit. Das bedeutet, dass ein einzelnes Konto mehrere Adobe-Produkte und -Services mit gemeinsamen Cloud-Speichermöglichkeiten nutzen kann. Kontobeschränkungen, die auf der Adobe ID-Ebene und nicht auf Produktebene erfolgen, werden nachfolgend als „Multi-Service“-Kontobeschränkung aufgeführt.

Die folgende Tabelle informiert über die Anzahl der Kontobeschränkungen, aufgeschlüsselt nach Produkt bzw. Service.
Produkt/Service
Anzahl der Beschränkungen
Adobe Stock
44
Behance
11.929
Frame.io
57
Multi-Service
221

Abschnitt 4: Über die internen Beschwerde-Management-Systeme von Adobe eingegangene Beschwerden (d. h. Einsprüche) (Paragraf 15(1)(d)).

4.1 Anzahl der eingegangenen Einsprüche.12

Die folgende Tabelle informiert über die Anzahl der eingegangenen Einsprüche über alle Einspruchskanäle, das heißt über den in unseren Benachrichtigungs-E-Mails enthaltenen Einspruchs-Link und per E-Mail, geordnet nach Produkt bzw. Service.

Adobe-Produkt oder -Service
Anzahl der eingegangenen Einsprüche
Adobe Creative Cloud-Speicherplatz
2
Adobe Document Cloud
2
Adobe Express
1
Adobe InDesign
6
Adobe Photoshop Express
5
Adobe Photoshop Lightroom
11
Adobe Stock
113
Behance
601
Multi-Service
49

4.2 Anzahl der Einsprüche nach Grund und Produkt/Service.13

Die folgende Tabelle informiert über die Anzahl der eingegangenen Einsprüche über alle Einspruchskanäle, das heißt über den in unseren Benachrichtigungs-E-Mails enthaltenen Einspruchs-Link und per E-Mail, geordnet nach der Grundlage für die ursprüngliche Content-Moderationsmaßnahme und nach Produkt bzw. Service.

Gesamtanzahl der Einsprüche
Art des Regelverstoßes
Adobe Commerce
Adobe Creative Cloud-Speicherplatz
Adobe Document Cloud
Adobe Express
Adobe InDesign
Adobe Photoshop Express
Adobe Photoshop Lightroom
Adobe Stock
Behance
Multi-Service
Betrug oder Phishing
0
0
0
0
5
0
0
50
0
10
Geistiges Eigentum
1
0
0
0
0
0
0
20
5
0
Nacktheit und sexuelle Inhalte
0
0
0
1
0
4
9
0
513
0
Veröffentlichung privater Informationen
0
0
0
0
0
1
0
0
0
0
Vulgäre Sprache
0
0
0
0
0
0
0
0
2
0
Spam
0
0
0
0
0
0
0
0
11
0
Gewalt und Blut
0
0
0
0
0
0
0
0
67
0
Sonstiges14
0
2
2
0
1
0
2
38
3
39

4.3 Anzahl der Einsprüche nach Produkt/Service und Einspruchsergebnis.15

Die folgenden Daten zeigen die Anzahl der Inhalte, die nach einem erfolgreichen Einspruch wiederhergestellt wurden.

Gesamtzahl der wiederhergestellten Inhalte und Konten nach Beschwerde
Art des Regelverstoßes
Adobe Commerce
Adobe Creative Cloud-Speicherplatz
Adobe Document Cloud
Adobe Express
Adobe InDesign
Adobe Photoshop Express
Adobe Photoshop Lightroom
Adobe Stock
Behance
Multi-Service
Betrug oder Phishing
0
0
0
0
5
0
0
34
0
9
Geistiges Eigentum
1
0
0
0
0
0
0
12
5
0
Nacktheit und sexuelle Inhalte
0
0
0
0
0
4
2
0
428
0
Veröffentlichung privater Informationen
0
0
0
0
0
0
0
0
0
0
Vulgäre Sprache
0
0
0
0
0
0
0
0
1
0
Spam
0
0
0
0
0
0
0
0
1
0
Gewalt und Blut
0
0
0
0
0
0
0
0
64
0
Sonstiges16
0
0
0
0
0
0
0
15
0
12

4.4: Durchschnittliche Bearbeitungszeit für Einsprüche.17

Die folgende Tabelle zeigt die durchschnittliche Zeit, die Adobe benötigt, um einen Einspruch zu bearbeiten, aufgeschlüsselt nach Produkt bzw. Service. Wir erhalten Einsprüche über verschiedene Kanäle, zum Beispiel über den Einspruchs-Link in unseren Benachrichtigungs-E-Mails und über unser Einspruchsformular. Die unten aufgeführten Daten stellen die durchschnittliche Bearbeitungszeit für beide Einspruchsarten dar.

Adobe-Produkt oder -Service
Durchschnittliche Bearbeitungszeit eines Einspruchs
Adobe Commerce
<1 Tag
Adobe Creative Cloud-Speicherplatz
4–5 Tage
Adobe Document Cloud
3–4 Tage
Adobe Express
Nicht zutreffend18
Adobe InDesign
<1 Tag
Adobe Photoshop Express
<1 Tag
Adobe Photoshop Lightroom
<1 Tag
Adobe Stock
13–14 Tage
Behance
4–5 Tage
Multi-Service
1 Tag

4.5: Anzahl der eingegangenen Einsprüche von Content-Meldenden.

Adobe hat im Berichtszeitraum keine Einsprüche von Content-Meldenden erhalten.

Abschnitt 5: Außergerichtliche Streitbeilegung (Paragraf 24(1)(a)).

Adobe informiert sowohl den Benutzer bzw. die Benutzerin als auch die Person, die die Meldung gemacht hat, über die Möglichkeit, eine zusätzliche Überprüfung durch zertifizierte, in der EU ansässige Stellen zur außergerichtlichen Streitbeilegung zu beantragen. Adobe hat im Berichtszeitraum keine Anträge von Benutzerinnen bzw. Benutzern oder Meldenden erhalten, Streitigkeiten zur Content-Moderation außergerichtlich beizulegen.

Abschnitt 6: Nach Paragraf 23 verhängte Sperrungen zur Missbrauchsbekämpfung (Paragraf 24(1)(b)).

6.1 Anzahl der nach Paragraf 23 verhängten Sperrungen wegen offensichtlich rechtswidriger Inhalte.

Wenn ein Adobe-Benutzer oder eine Adobe-Benutzerin wiederholt offensichtlich rechtswidrige Inhalte hochlädt oder eine meldende Person häufig offensichtlich unbegründete Meldungen oder Einsprüche über unsere Kanäle einreicht, können wir für einen angemessenen Zeitraum die Nutzung des betreffenden Produkts, Services oder Systems sperren. Adobe hat im Berichtszeitraum keine Konten wegen der Einreichung offensichtlich unbegründeter Meldungen oder Einsprüche über unsere Kanäle gesperrt.

Abschnitt 7: Durchschnittliche Zahl monatlich aktiver Benutzerinnen und Benutzer (Paragraf 42(3)).

Paragraf 24(2) des Gesetzes über digitale Dienste (DSA) verpflichtet „Online-Plattformen“, alle sechs Monate Informationen über die durchschnittliche Zahl monatlich aktiver Benutzerinnen und Benutzer (Monthly Active Users, MAU) in der EU zu veröffentlichen. Adobe stellt Informationen über die EU-MAU für unsere Produkte und Services, die möglicherweise in den Anwendungsbereich der „Online-Plattformen“ des DSA fallen, hier zur Verfügung.


1 In der obigen Tabelle haben wir nur die EU-Mitgliedstaaten aufgeführt, deren Behörden im Berichtszeitraum Anfragen nach Benutzerdaten gestellt haben.

2 In der obigen Tabelle haben wir ausschließlich jene Adobe-Produkte und -Services sowie Kategorien mutmaßlicher Verstöße aufgeführt, für die wir im Berichtszeitraum Mitteilungen gemäß Paragraf 16 erhalten haben.

3 Die obige Tabelle enthält nur die Produkte und Services von Adobe, für die wir im Berichtszeitraum Mitteilungen gemäß Paragraf 16 erhalten haben.

4 Bei einer Mitteilung gemäß Paragraf 16 können mehrere Maßnahmen ergriffen werden.

5 In der obigen Tabelle sind ausschließlich Produkte und Services von Adobe zu finden, für die wir im Berichtszeitraum Mitteilungen gemäß Paragraf 16 erhalten haben.

6 Die obige Tabelle umfasst nur die Produkte, Services und Richtlinienkategorien, für die im Berichtszeitraum Daten vorlagen.

7 Adobe Creative Cloud-Speicherplatz bezieht sich auf den Cloud-Speicher (und die darin gespeicherten Inhalte), der mit einem Adobe Creative Cloud-Konto verknüpft ist.

8 Nicht alle in dieser Tabelle aufgeführten Kategorien von Richtlinienverstößen treffen auf unser vielfältiges Angebot und die Nutzung unserer Produkte und Services zu. Aus diesem Grund werden bei einigen Produkten Maßnahmen zur Content-Moderation unter „Sonstiges“ aufgeführt, als Sammelbegriff für die Durchsetzung produktspezifischer Richtlinien und Nutzungsbedingungen.

9  Gemäß der Content-Einreichungsrichtlinien kann Adobe Stock Beiträge von Mitwirkenden entfernen, die produktspezifische Anforderungen enthalten, die nicht mit den in dieser Tabelle aufgeführten Richtlinienkategorien übereinstimmen.

10 In der unten stehenden Tabelle haben wir nur die Produkte, Services und Richtlinienkategorien aufgenommen, für die im Berichtszeitraum Daten vorlagen.

11 In der folgenden Tabelle sind nur die Adobe-Produkte und -Services aufgeführt, bei denen im Berichtszeitraum Konten von Benutzerinnen und Benutzern in der EU eingeschränkt wurden.

12 In der unten stehenden Tabelle haben wir nur die Produkte und Services von Adobe aufgenommen, für die wir im Berichtszeitraum Einsprüche erhalten haben.

13 Die untenstehende Tabelle umfasst ausschließlich Adobe-Produkte und -Services, für die wir im Berichtszeitraum Einsprüche erhalten haben, sowie deren zugehörige Richtlinienkategorien.

14 Nicht alle in dieser Tabelle aufgeführten Kategorien von Richtlinienverstößen treffen auf unser vielfältiges Angebot und die Nutzung unserer Produkte und Services zu. Aus diesem Grund werden bei einigen Produkten Einsprüche gegen Content-Moderation unter „Sonstiges“ aufgeführt, als Sammelbegriff für die Durchsetzung produktspezifischer Richtlinien und Nutzungsbedingungen.

15 Die untenstehende Tabelle umfasst ausschließlich Adobe-Produkte und -Services, für die wir im Berichtszeitraum Einsprüche erhalten haben, sowie deren zugehörige Richtlinienkategorien.

16 Nicht alle in dieser Tabelle aufgeführten Kategorien von Richtlinienverstößen treffen auf unser vielfältiges Angebot und die Nutzung unserer Produkte und Services zu. Aus diesem Grund werden bei einigen Produkten Einsprüche gegen Content-Moderation unter „Sonstiges“ aufgeführt, als Sammelbegriff für die Durchsetzung produktspezifischer Richtlinien und Nutzungsbedingungen.

17 In der unten stehenden Tabelle haben wir nur die Produkte und Services von Adobe aufgenommen, für die wir im Berichtszeitraum Einsprüche erhalten haben.

18 Obwohl Adobe Express während des Berichtszeitraums einen (1) Einspruch erhalten hat, war dieser zum Zeitpunkt dieses Berichts noch nicht bearbeitet. Aus diesem Grund gibt es keine mittlere Bearbeitungszeit zu melden.