Fecha de publicación: 17 de febrero de 2025

Periodo del informe: del 17 de febrero de 2024 al 31 de diciembre de 2024

Acerca de este informe de transparencia

Adobe Software Systems Ireland (“Adobe” o “nosotros”) comparte el objetivo de la Comisión Europea de convertir Internet en un lugar más seguro mediante la transparencia y la responsabilidad. De conformidad con los artículos 15 y 24 de la Ley de Servicios Digitales (“LSD” o “Reglamento”) de la Unión Europea (“UE”), en Adobe publicamos nuestro primer informe de transparencia (“Informe”) relativo a los productos y servicios que hemos considerado que están dentro del ámbito de aplicación del Reglamento. Ofrecemos productos y servicios que van desde herramientas de colaboración empresarial por suscripción hasta aplicaciones móviles gratuitas de edición de fotos, y evaluamos continuamente si nuestras ofertas entran en el ámbito de aplicación de la LSD. En este informe, se exponen nuestras iniciativas para moderar el contenido en la UE en nuestra variada gama de ofertas de conformidad con nuestras Condiciones generales de uso, Políticas de contenido y Directrices de la comunidad específicas de cada producto (en conjunto, las “Políticas”). Además, se presentan métricas detalladas sobre dichas iniciativas para el periodo del informe, que va del 17 de febrero de 2024 al 31 de diciembre de 2024.

Nos comprometemos a actualizar con regularidad nuestros procesos y Políticas, y a publicar este informe anualmente de acuerdo con nuestras obligaciones en virtud de este Reglamento. Se puede encontrar más información sobre nuestro enfoque de moderación de contenidos y la LSD en nuestro Centro de transparencia.

Este informe contiene la siguiente información:

1. Órdenes recibidas de las autoridades de los Estados miembros

2. Avisos recibidos de conformidad con el artículo 16

3. Moderación de contenidos realizada por iniciativa propia de Adobe

4. Reclamaciones recibidas a través de los sistemas internos de tramitación de reclamaciones de Adobe

5. Resoluciones extrajudiciales de controversias

6. Suspensiones impuestas en virtud del artículo 23 para mitigar el uso indebido

7. Media de personas usuarias activas al mes

Sección 1: Órdenes recibidas de las autoridades de los Estados miembros (artículo 15[1][a])

En esta sección, se detalla el volumen de solicitudes que Adobe ha recibido de las fuerzas del orden, los tribunales y otros organismos gubernamentales de la UE para eliminar contenido o proporcionar información de las personas usuarias de conformidad con los artículos 9 y 10.

1.1 Órdenes gubernamentales de eliminación procedentes de Estados miembros de la UE

Adobe no recibió ninguna orden de eliminación procedente de los tribunales u organismos gubernamentales de la UE durante el periodo del informe.

1.2 Solicitudes de datos de personas usuarias de los Estados miembros de la UE

Las solicitudes de datos de personas usuarias incluyen órdenes emitidas de conformidad con la legislación local y las solicitudes de las fuerzas del orden, así como solicitudes de divulgación urgentes. Nuestro equipo de seguridad y confianza estudia con atención estas solicitudes para determinar la validez del proceso legal, evaluar la proporcionalidad de la solicitud y garantizar el cumplimiento de los compromisos internacionales de protección de datos asumidos por Adobe. Se puede encontrar más información sobre cómo Adobe gestiona las solicitudes de datos de personas usuarias en nuestras directrices sobre Solicitudes gubernamentales y de terceros de datos de personas usuarias.

En la siguiente tabla se ofrece información sobre el número de solicitudes de datos de personas usuarias que Adobe recibió de las autoridades de los Estados miembros de la UE y sobre si se proporcionó alguna información durante el periodo del informe.

Tabla 1.2.1: Solicitudes de datos de personas usuarias procedentes de las autoridades de los Estados miembros de la UE
País
Solicitudes
Solicitudes para las que se proporcionó información
Francia
5
0
Alemania
25
8
Irlanda
3
2
Eslovaquia
1
1
España
3
0

Tiempo medio de acuse de recibo: menos de 1 día

Tiempo medio para cumplir las órdenes: menos de 3 días

Sección 2: Avisos recibidos de conformidad con el artículo 16 (artículo 15[1][b])

Adobe ha implementado procesos que permiten a las personas de la UE, ya sean usuarias, no usuarias, alertadores fiables según se define el término en el artículo 22, u otras entidades, denunciar contenido que consideren que infringe la legislación de los Estados miembros de conformidad con el artículo 16. Cuando recibimos estos avisos específicos, revisamos el contenido denunciado según nuestras Políticas y tomamos las medidas oportunas. Si el contenido denunciado no infringe las Políticas de Adobe, evaluamos su legalidad basándonos en la información proporcionada y podemos restringir el acceso a este en la jurisdicción correspondiente. Los equipos de seguridad y confianza y de propiedad intelectual de Adobe revisan manualmente los avisos conforme al artículo 16, y no se procesan automáticamente para ninguno de los productos o servicios de Adobe incluidos en el ámbito de aplicación.

Las personas con rol de alertador fiable designadas por la persona encargada de la coordinación de servicios digitales del Estado miembro en el que se encuentren pueden, como se ha descrito más arriba, denunciar contenido presuntamente ilegal de conformidad con el artículo 22. Adobe no ha recibido ninguna denuncia procedente de alertadores fiables designados hasta el 31 de diciembre de 2024.

2.1 Número de avisos conformes al artículo 16 presentados, por categoría del contenido presuntamente ilegal2

En la siguiente tabla, se facilita información sobre el número de avisos presentados por personas usuarias de la UE de conformidad con el artículo 16 durante el periodo del informe, desglosados por la categoría del contenido presuntamente ilegal y producto o servicio.

Número de avisos conformes al art. 16 recibidos
Tipo de contenido presuntamente ilegal
Adobe Commerce Cloud
Adobe Document Cloud
Adobe Express
Adobe InDesign
Adobe Stock
Behance
Protección infantil
0
0
0
0
2
0
Propiedad intelectual
36
3
1
1
233
456

2.2 Número de acciones emprendidas en respuesta a los avisos conformes al artículo 163

En la siguiente tabla se facilita información sobre el número de acciones⁴ emprendidas en respuesta a los avisos presentados por personas usuarias de la UE de conformidad con el artículo 16 durante el periodo del informe, desglosadas por acciones adoptadas debido a contenido considerado infractor de las Políticas de Adobe y contenido considerado ilegal en virtud de la legislación local.

Producto o servicio de Adobe
Acciones emprendidas por infracción de las Políticas de Adobe
Acciones emprendidas por contenido considerado ilegal en virtud de la legislación local
Adobe Commerce
0
143
Adobe Document Cloud
0
4
Adobe InDesign
0
1
Adobe Stock
17
1663
Behance
0
242

2.3 Tiempo medio para actuar sobre el contenido identificado en los avisos conformes al artículo 165

En la siguiente tabla se facilita información sobre el tiempo medio que Adobe tardó en actuar sobre el contenido identificado en los avisos conformes al artículo 16, desglosado por producto o servicio.

Producto o servicio de Adobe
Tiempo medio para actuar
Adobe Commerce
8-9 días
Adobe Document Cloud
1-2 días
Adobe InDesign
4-5 días
Adobe Stock
Menos de 1 día
Behance
Menos de 1 día

Sección 3: Moderación de contenido realizada por iniciativa propia de Adobe

3.1 Moderación proactiva de contenido

Adobe considera que para mantener comunidades dinámicas y fiables que fomenten la creatividad hacen falta directrices claras sobre el comportamiento aceptable y procesos sólidos para garantizar la coherencia en la aplicación de las normas sobre contenido. En nuestras Políticas, disponibles en nuestro Centro de transparencia, se establecen normas de conducta para quienes usan los productos y servicios de Adobe. Utilizamos mecanismos de denuncia integrados en los productos, nuestros canales de denuncia públicos y tecnologías automatizadas para detectar contenido presuntamente ilegal o que infringe las Políticas.

Cuando el contenido infringe nuestras Políticas, tomamos medidas al respecto a nivel global. Aunque dichas Políticas suelen abarcar material ilegal a nivel local, Adobe también se compromete a respetar la legislación aplicable de la UE y sus Estados miembros. Si determinamos que el contenido infringe la legislación local, pero no nuestras Políticas, podemos deshabilitarlo a nivel local bloqueándolo en la jurisdicción correspondiente.

Mecanismos de denuncia de contenido

Mecanismos de denuncia integrados en los productos

En una amplia gama de productos y servicios de Adobe, las personas pueden denunciar contenido que consideren que infringe nuestras Políticas mediante opciones de denuncia integradas. Estas opciones de denuncia se detallan por producto aquí. Para cualquier otro producto o servicio, cualquier persona, sea o no usuaria, puede ponerse en contacto con abuse@adobe.com para presentar una denuncia al equipo de seguridad y confianza de Adobe. Cuando alguien denuncia una presunta infracción de nuestras Políticas, nuestro equipo puede revisar el contenido en cuestión para determinar si esta se ha producido y actuar en consecuencia.

Formularios de denuncia

Cualquier persona en la UE puede denunciar contenido en productos o servicios de Adobe que considere que infringe las leyes aplicables de la UE o sus Estados miembros a través de nuestro formulario de denuncia de contenido ilegal. Las personas denunciantes deben proporcionar contexto adicional sobre el contenido presuntamente ilegal, lo que incluye el fundamento de la denuncia y el país donde que se considera que se ha infringido la ley. Cuando alguien denuncia una presunta infracción de nuestras Políticas, nuestro equipo puede revisar el contenido en cuestión para determinar si esta se ha producido y actuar en consecuencia.

Cualquier persona de cualquier parte del mundo puede denunciar una infracción de la propiedad intelectual a través de nuestro formulario de denuncia de infracciones. También aceptamos avisos por correo postal o fax, tal y como se expone en nuestra Política de eliminación de propiedad intelectual.

Política de eliminación de propiedad intelectual

En Adobe, respetamos los derechos de propiedad intelectual de terceros y esperamos que quienes usan nuestros servicios también lo hagan. Como se ha indicado anteriormente, la infracción de la propiedad intelectual constituye una vulneración de nuestras Políticas en todos los productos y servicios de Adobe. Deshabilitamos el contenido en respuesta a avisos de infracción completos y válidos. Cuando se presente un aviso válido ante Adobe contra alguien en relación con uno o más contenidos presuntamente infractores, la persona denunciada recibirá una “advertencia” en su cuenta. Si recibe tres “advertencias” en un año, cancelaremos su cuenta. Nuestra Política de eliminación de propiedad intelectual está disponible aquí.

Detección de contenido abusivo

Para hacer cumplir nuestras Políticas en todo el mundo, Adobe recurre a una serie de herramientas y mecanismos para detectar y eliminar contenido potencialmente infractor alojado en nuestros servidores. Utilizamos diferentes medidas dependiendo de si el contenido en cuestión se publica en una plataforma en línea (como Behance), se comparte mediante un enlace de acceso público (como una página pública de Adobe Express) (en conjunto, “contenido de acceso público”) o se guarda en el almacenamiento privado de la nube. No aplicamos ninguna de estas medidas al contenido almacenado de forma local.

Herramientas totalmente automatizadas

Nuestras herramientas automatizadas utilizan múltiples señales para detectar y eliminar contenido de acceso público que pueda infringir nuestras Políticas. Por ejemplo, estas herramientas nos permiten detectar y eliminar automáticamente contenido fraudulento, de phishing y spam en productos como Adobe Express. También nos permiten detectar y eliminar contenido en Behance que pueda infringir nuestras políticas sobre desnudos o violencia y escenas sangrientas. Los clasificadores asignan puntuaciones a textos, imágenes y vídeos detectados en nuestros productos y servicios, y eliminan el contenido basándose en estas puntuaciones. Nunca eliminamos automáticamente contenido ubicado en almacenamiento privado. El uso de estos modelos automatizados nos ayuda a detectar más contenido problemático y tomar decisiones de aplicación más rápidas, lo que a su vez contribuye a velar por la seguridad de nuestras comunidades.

Herramientas híbridas

Además de la eliminación automatizada de contenido, en algunos casos complementamos la detección automática de contenido de acceso público infractor con una revisión humana para garantizar la precisión de nuestras acciones. Los clasificadores asignan puntuaciones a textos, imágenes y vídeos detectados en nuestros productos y servicios, y nuestro equipo de seguridad y confianza revisa el contenido detectado y toma las medidas adecuadas. En todas las situaciones, la revisión humana del contenido solo se produce después de que nuestros modelos de detección de abusos lo hayan identificado o de que alguien lo haya denunciado. También utilizamos este sistema híbrido de revisión para combatir el material de abuso sexual infantil, que puede almacenarse en el almacenamiento privado de la nube, como se explica a continuación.

Herramientas empleadas para combatir el material de abuso sexual infantil (CSAM)

  • Adobe está muy comprometido con la protección de menores en línea y con la lucha contra la difusión de material de abuso sexual infantil (CSAM, por sus siglas en inglés). Contamos con una política de tolerancia cero contra cualquier material cargado en nuestros servidores, ya sea de acceso público o almacenado de forma privada, que sexualice, explote sexualmente o ponga en peligro a menores. Como parte de estos esfuerzos, empleamos una serie de mecanismos que combinan la detección automática de contenido con la revisión humana, incluidos los siguientes:
    • Utilizamos múltiples métodos para detectar CSAM, como modelos sofisticados de aprendizaje automático y tecnología de coincidencia de hash. Estos análisis nos permiten comparar las firmas digitales (o “hashes”) de los vídeos e imágenes cargados por cualquier persona usuaria de Adobe en nuestros servidores con bases de datos de hashes de CSAM conocidos. Adobe denuncia todo el CSAM confirmado al Centro Nacional para Menores Desaparecidos y Explotados (NCMEC, por sus siglas en inglés), y nuestro equipo de seguridad y confianza revisa todo ese material denunciado para garantizar la máxima precisión y calidad en todas las denuncias.
    • Nuestro equipo de seguridad y confianza revisará, denunciará y eliminará el CSAM detectado por nuestros modelos de aprendizaje automático y tecnología de coincidencia de hash, así como por denuncias de personas usuarias o investigaciones de cuentas. Compartimos los hashes de CSAM que aún no se habían detectado con la lista de hashes del sector gestionada por el NCMEC para prevenir la redistribución de CSAM en otras plataformas. Seguimos avanzando en las capacidades de detección de CSAM de Adobe e incorporando funciones de bienestar en nuestras herramientas de moderación.

Aplicación de normas sobre contenido

Equipos de aplicación de normas sobre contenido

Adobe cuenta con varios equipos especialmente capacitados para garantizar que el contenido denunciado en nuestra amplia gama de productos y servicios se revise con prontitud y se evalúe de forma apropiada:

  • El equipo de seguridad y confianza es responsable de la moderación del contenido de nuestros productos y servicios de contenido generado por personas usuarias (como Behance) que infringe las Políticas de contenido de Adobe.
  • Además, Adobe Stock cuenta con un equipo de personas responsables de revisar las contribuciones antes de permitir que se ofrezcan para ser autorizados como parte de la colección de Adobe Stock.
  • Por último, contamos con un equipo de agentes de propiedad intelectual debidamente capacitados para gestionar las reclamaciones por infracción de la propiedad intelectual en todos nuestros productos y servicios.

Nuestros equipos de aplicación de normas sobre contenido reciben una formación exhaustiva sobre una amplia variedad de temas durante su proceso de incorporación. Además, se les actualiza acerca de nuevas leyes o contextos políticos o históricos relevantes. En caso de que se presenten denuncias particularmente complejas, los equipos de aplicación de normas sobre contenido pueden consultar con la dirección o derivar la cuestión a miembros de los equipos legales y de políticas, de propiedad intelectual, y seguridad y confianza de Adobe, que, a su vez, pueden consultar con especialistas internos y externos con experiencia en las leyes de la UE y los Estados miembros.

Acciones sobre contenido y cuentas

Adobe actúa con celeridad a la hora de emprender las acciones apropiadas contra las infracciones de nuestras Políticas o la ley aplicable. Nuestros equipos de seguridad y confianza, Stock y propiedad intelectual revisan el contenido denunciado o identificado en busca de posibles infracciones. Cuando determinamos que el contenido infringe las normas, tomamos medidas como las siguientes:

  • Desactivación en todo el mundo: primero revisamos el contenido para comprobar si infringe nuestras Políticas, y lo desactivamos a nivel internacional si esto se confirma. Cuando desactivamos contenido, deja de estar disponible para personas de todo el mundo, sean usuarias o no.
  • Bloqueo local: Adobe puede restringir el acceso al contenido en cada jurisdicción pertinente si determina que el contenido infringe la legislación local, pero no nuestras Políticas. Cuando bloqueamos contenido a nivel local, nadie que pertenezca a la jurisdicción correspondiente puede verlo, sea o no una persona usuaria, pero sigue estando visible en otros lugares.
  • Limitación de la distribución: cuando limitamos la distribución de un contenido, este permanece en el producto o servicio, pero puede que no sea visible para ciertas personas.

Tenemos en cuenta una serie de factores a la hora de decantarnos por la medida adecuada con respecto al contenido. Como se ha descrito anteriormente, podemos tomar la decisión de desactivar el contenido en todo el mundo o bloquearlo a nivel local según la naturaleza de la infracción u otro contexto específico de cada caso. También podemos decidir, caso por caso, permitir que determinado contenido permanezca en nuestros productos y servicios, pero impedir su descubrimiento accidental o visualización por parte de ciertas personas.

Adobe también puede restringir o limitar la distribución o las capacidades de cualquier cuenta que haya infringido nuestras Políticas.

Notificación y apelaciones

Para nuestros productos y servicios pertinentes, Adobe notifica por correo electrónico las medidas tomadas con respecto al contenido a las personas afectadas y a las personas o entidades que han denunciado el contenido.

Tanto las personas afectadas como las denunciantes pueden apelar nuestras decisiones de aplicación de normas sobre contenido. Si alguna de las partes considera que nuestra decisión se ha tomado por error, puede presentar una apelación a través de nuestro formulario de apelaciones o por correo electrónico. Algunas personas pueden tener opciones de apelación adicionales o mecanismos de rectificación disponibles según su legislación local.

Cuando enviamos un correo electrónico a una persona usuaria o denunciante para detallar una acción de aplicación de normas, solemos incluir en él un enlace a nuestro formulario de apelaciones. Si se envía una apelación a través del formulario, ambas partes recibirán más actualizaciones por correo electrónico. Si una de estas personas decide ponerse en contacto con nosotros por correo electrónico en lugar de hacerlo a través del formulario de apelaciones, también enviaremos las correspondientes actualizaciones por correo electrónico.

3.2 Número de acciones de moderación de contenido emprendidas por iniciativa de Adobe6

Para Adobe, las acciones de moderación de contenido emprendidas por iniciativa propia son acciones aplicadas sobre contenido disponible en la UE basándose en que este infringe las Políticas o se considera ilegal, pero no se ha denunciado formalmente a Adobe mediante una orden conforme al artículo 9 o un aviso conforme al artículo 16.

Estas acciones de moderación de contenido incluyen tanto la aplicación proactiva como la reactiva. La aplicación proactiva ocurre cuando un miembro del personal o contratista de Adobe o la tecnología de Adobe identifica contenido potencialmente infractor de las políticas y actúa sobre él de conformidad con nuestras Políticas. La aplicación reactiva tiene lugar cuando una persona u otra entidad externa denuncia contenido a Adobe y se actúa sobre este en caso de que se confirme que infringe nuestras Políticas.

Tipo de infracción de la Política
Almacenamiento de Adobe Creative Cloud7
Adobe Document Cloud
Adobe Express
Adobe InDesign
Adobe Photoshop Express
Adobe Photoshop Lightroom
Adobe Portfolio
Adobe Stock
Behance
Sexualización o explotación infantil
0
0
0
0
0
0
0
0
374
Fraude o phishing
164
537
550
113
0
0
9
0
26
Contenido de odio
0
0
3
0
0
0
0
0
0
Propiedad intelectual
0
0
0
0
0
0
0
22 342
0
Desnudez y contenido sexual
0
0
1
0
479
92
0
0
55 209
Publicación de información privada
0
1
0
0
1
0
0
0
51
Lenguaje ofensivo
0
0
0
0
0
40
0
0
26
Bienes y servicios regulados
0
0
0
0
0
0
0
0
1
Spam
83
62
0
0
7
4
0
0
7710
Violencia y escenas sangrientas
0
0
0
0
1
7
0
0
36 862
Otros8
1
2
0
0
7
34
0
61 7209
7

3.3 Número de acciones de moderación de contenido emprendidas por medios automatizados10

En la siguiente tabla, se facilita información sobre el número de contenidos eliminados como resultado directo de la aplicación automatizada, desglosado por producto o servicio. No todos los productos y servicios de Adobe cuentan con mecanismos de aplicación automatizados.

Volumen de eliminación automatizada
Tipo de infracción de la Política
Adobe Express
Adobe InDesign
Adobe Photoshop Express
Adobe Portfolio
Behance
Fraude o phishing
308
113
0
9
0
Desnudez y contenido sexual
0
0
139
0
1758
Violencia y escenas sangrientas
0
0
0
0
99
Spam
0
0
0
0
5979

3.4 Número de restricciones de cuentas11

Adobe emite cuentas a las personas usuarias para que accedan a sus productos y servicios en lo que denominamos el nivel “Adobe ID”. Esto significa que una cuenta individual puede utilizar múltiples productos y servicios de Adobe con capacidades compartidas de almacenamiento en la nube. Las restricciones de cuenta a nivel de Adobe ID en lugar de a nivel de producto se enumeran a continuación como restricciones de cuenta “Multiservicio”.

En la siguiente tabla se muestra información sobre el volumen de restricciones de cuentas, desglosado por producto o servicio
Producto o servicio
Volumen de restricciones
Adobe Stock
44
Behance
11 929
Frame.io
57
Multiservicio
221

Sección 4: Reclamaciones recibidas a través de los sistemas internos de tramitación de reclamaciones de Adobe (es decir, Apelaciones) (artículo 15[1][d])

4.1 Número de apelaciones recibidas12

En la siguiente tabla se facilita información sobre el número de apelaciones recibidas a través de todos los canales de apelación, es decir, mediante el enlace de apelación incluido en nuestros correos electrónicos de notificación y por correo electrónico, organizadas por producto o servicio.

Producto o servicio de Adobe
Número de apelaciones recibidas
Almacenamiento de Adobe Creative Cloud
2
Adobe Document Cloud
2
Adobe Express
1
Adobe InDesign
6
Adobe Photoshop Express
5
Adobe Photoshop Lightroom
11
Adobe Stock
113
Behance
601
Multiservicio
49

4.2 Número de apelaciones, por motivo y producto o servicio13

En la siguiente tabla se facilita información sobre el número de apelaciones recibidas a través de todos los canales de apelación, es decir, mediante el enlace de apelación incluido en nuestros correos electrónicos de notificación y por correo electrónico, organizadas según el motivo de la acción original de moderación de contenido y por producto o servicio.

Volumen total de apelaciones
Tipo de infracción de la Política
Adobe Commerce
Almacenamiento de Adobe Creative Cloud
Adobe Document Cloud
Adobe Express
Adobe InDesign
Adobe Photoshop Express
Adobe Photoshop Lightroom
Adobe Stock
Behance
Multiservicio
Fraude o phishing
0
0
0
0
5
0
0
50
0
10
Propiedad intelectual
1
0
0
0
0
0
0
20
5
0
Desnudez y contenido sexual
0
0
0
1
0
4
9
0
513
0
Publicación de información privada
0
0
0
0
0
1
0
0
0
0
Lenguaje ofensivo
0
0
0
0
0
0
0
0
2
0
Spam
0
0
0
0
0
0
0
0
11
0
Violencia y escenas sangrientas
0
0
0
0
0
0
0
0
67
0
Otros14
0
2
2
0
1
0
2
38
3
39

4.3 Número de apelaciones, por producto o servicio y resultado de la apelación15

Los siguientes datos representan el número de contenidos restaurados tras una apelación exitosa.

Total de cuentas y contenidos restaurados tras la reclamación
Tipo de infracción de la Política
Adobe Commerce
Almacenamiento de Adobe Creative Cloud
Adobe Document Cloud
Adobe Express
Adobe InDesign
Adobe Photoshop Express
Adobe Photoshop Lightroom
Adobe Stock
Behance
Multiservicio
Fraude o phishing
0
0
0
0
5
0
0
34
0
9
Propiedad intelectual
1
0
0
0
0
0
0
12
5
0
Desnudez y contenido sexual
0
0
0
0
0
4
2
0
428
0
Publicación de información privada
0
0
0
0
0
0
0
0
0
0
Lenguaje ofensivo
0
0
0
0
0
0
0
0
1
0
Spam
0
0
0
0
0
0
0
0
1
0
Violencia y escenas sangrientas
0
0
0
0
0
0
0
0
64
0
Otros16
0
0
0
0
0
0
0
15
0
12

4.4: Tiempo medio de resolución de apelaciones17

En la siguiente tabla se facilita información sobre el tiempo medio que tardó Adobe en actuar sobre una apelación, desglosado por producto o servicio. Recibimos apelaciones a través de múltiples canales, por ejemplo, mediante el enlace de apelación incluido en nuestros correos electrónicos de notificación y a través de nuestro formulario de apelaciones. Los siguientes datos representan el tiempo medio de respuesta para ambos tipos de apelación.

Producto o servicio de Adobe
Tiempo medio para resolver una apelación
Adobe Commerce
Menos de 1 día
Almacenamiento de Adobe Creative Cloud
4-5 días
Adobe Document Cloud
3-4 días
Adobe Express
N/A18
Adobe InDesign
Menos de 1 día
Adobe Photoshop Express
Menos de 1 día
Adobe Photoshop Lightroom
Menos de 1 día
Adobe Stock
13-14 días
Behance
4-5 días
Multiservicio
1 día

4.5: Número de apelaciones recibidas de denunciantes de contenido

Adobe no recibió ninguna apelación de denunciantes de contenido durante el periodo del informe.

Sección 5: Resoluciones extrajudiciales de controversias (artículo 24[1][a])

Adobe informará tanto a la persona usuaria como a la denunciante sobre su oportunidad de solicitar una revisión adicional por parte de organismos certificados de resolución extrajudicial de controversias con sede en la UE. Adobe no recibió ninguna solicitud de personas usuarias ni denunciantes para resolver controversias de moderación de contenido de forma extrajudicial durante el periodo del informe.

Sección 6: Suspensiones impuestas en virtud del artículo 23 para mitigar el uso indebido (artículo 24[1][b])

6.1 Número de suspensiones por contenido manifiestamente ilegal impuestas de conformidad con el artículo 23

Si una persona usuaria de Adobe carga con frecuencia contenido manifiestamente ilegal, o si alguien presenta de manera reiterada denuncias o apelaciones manifiestamente infundadas a través de nuestros canales, podremos suspender, durante un periodo razonable, su capacidad de utilizar el producto, servicio o sistema correspondiente. Adobe no suspendió ninguna cuenta por presentar denuncias o apelaciones manifiestamente infundadas a través de nuestros canales durante el periodo del informe.

Sección 7: Media de personas usuarias activas al mes (artículo 42[3])

El artículo 24(2) de la Ley de Servicios Digitales (LSD) exige que las “plataformas en línea” publiquen información sobre la media de personas usuarias activas mensuales (UAM) en la UE cada seis meses. Adobe proporciona aquí información sobre las MAU de la UE relativas a nuestros productos y servicios que podrían encajar en el ámbito de las “plataformas en línea” según la LSD.


1 En la tabla anterior, solo se han incluido los Estados miembros de la UE cuyas autoridades solicitaron datos de personas usuarias durante el periodo del informe.

2 En la tabla anterior, solo se han incluido los productos y servicios de Adobe, así como las categorías de presuntas infracciones, para los que recibimos avisos conformes al artículo 16 durante el periodo del informe.

3 En la tabla anterior, solo se han incluido los productos y servicios de Adobe para los que recibimos avisos conformes al artículo 16 durante el periodo del informe.

4 Es posible que se emprenda más de una acción en respuesta a un aviso conforme al artículo 16.

5 En la tabla anterior, solo se han incluido los productos y servicios de Adobe para los que recibimos avisos conformes al artículo 16 durante el periodo del informe.

6 En la tabla anterior, solo se han incluido los productos y servicios, así como las categorías de políticas, cuyos datos se encuentran dentro del periodo del informe.

7 “Almacenamiento de Adobe Creative Cloud” se refiere al almacenamiento en la nube (y al contenido almacenado en él) vinculado a una cuenta de Adobe Creative Cloud.

8 No todas las categorías de infracciones de políticas que figuran en esta tabla podrán aplicarse a nuestra variada oferta y los usos de nuestros productos y servicios. Por este motivo, las acciones de moderación de contenido de algunos productos se incluirán en “Otros” para tener en cuenta la aplicación de otras condiciones y políticas específicas de dichos productos.

9 Adobe Stock puede eliminar activos de personas colaboradoras de conformidad con sus Directrices de envío de contenido, que contienen requisitos específicos del producto que no se ajustan a las categorías de políticas enumeradas en esta tabla.

10 En la tabla siguiente, solo se han incluido los productos y servicios, así como las categorías de políticas, cuyos datos se encuentran dentro del periodo del informe.

11 En la tabla siguiente, solo se han incluido los productos y servicios de Adobe de los que se restringieron cuentas en la Unión Europea durante el periodo del informe.

12 En la tabla siguiente, solo se han incluido los productos y servicios de Adobe para los que recibimos apelaciones durante el periodo del informe.

13 En la tabla siguiente, solo se han incluido los productos y servicios de Adobe para los que recibimos apelaciones, así como sus categorías de políticas asociadas, durante el periodo del informe.

14 No todas las categorías de infracciones de políticas que figuran en esta tabla podrán aplicarse a nuestra variada oferta y los usos de nuestros productos y servicios. Por este motivo, las apelaciones de moderación de contenido de algunos productos se incluirán en “Otros” para tener en cuenta la aplicación de otras condiciones y políticas específicas de dichos productos.

15 En la tabla siguiente, solo se han incluido los productos y servicios de Adobe para los que recibimos apelaciones, así como sus categorías de políticas asociadas, durante el periodo del informe.

16 No todas las categorías de infracciones de políticas que figuran en esta tabla podrán aplicarse a nuestra variada oferta y los usos de nuestros productos y servicios. Por este motivo, las apelaciones de moderación de contenido de algunos productos se incluirán en “Otros” para tener en cuenta la aplicación de otras condiciones y políticas específicas de dichos productos.

17 En la tabla siguiente, solo se han incluido los productos y servicios de Adobe para los que recibimos apelaciones durante el periodo del informe.

18 Aunque Adobe Express recibió una (1) apelación durante el periodo del informe, esta no se había resuelto cuando lo elaboramos. Por este motivo, no se ha incluido el tiempo medio de su resolución.