Skip to content

¿Qué obligaciones de supervisión cabe imponer a una plataforma? (Conclusiones del AG en el caso Glawischnig-Piesczek v. Facebook).

15 June 2019

facebook
¿Qué obligaciones proactivas de control de contenidos es posible imponer a una red social como Facebook y, por extensión, a las demás plataformas que alojan contenidos subidos por sus usuarios? Se trata de una cuestión muy controvertida sobre la que deberá pronunciarse próximamente el Tribunal de Justicia de la UE (TJUE) a raíz de una cuestión prejudicial planteada por el tribunal supremo de Austria. Es el asunto Glawischnig-Piesczek v. Facebook Ireland (asunto C-18/18), en el que ya contamos con las conclusiones del Abogado General Szpunar, publicadas el pasado 4 de junio,

Los hechos son en síntesis los siguientes. Un usuario publicó en su cuenta de Facebook un enlace a un artículo sobre una diputada del parlamento austriaco. Con el enlace se generó una miniatura del artículo, incluyendo una fotografía de la diputada. El usuario escribió a continuación unas expresiones insultantes en contra de la política (“miserable traidora del pueblo”; “idiota corrupta”…). La interesada se dirigió a Facebook para que eliminara esos comentarios. Ante la negativa de la red social, presentó una demanda judicial. Los tribunales consideraron que las expresiones eran difamatorias y ordenaron a Facebook que dejara de mostrar fotografías de la demandante acompañadas de manifestaciones idénticas o de contenido similar a las denunciadas. La red social impidió entonces el acceso desde Austria al contenido inicialmente publicado por el usuario.

En apelación se confirmó la orden de detectar y retirar de la plataforma las expresiones idénticas a las declaradas difamatorias. En cuanto a las similares, el tribunal consideró que sólo se podía exigir la retirada de las que se pusieran en conocimiento de Facebook, sin imponer a la red social la obligación de detectar por su cuenta tales contenidos para su retirada. Por lo demás, el tribunal de apelación rechazó la pretensión de Facebook de que la retirada tuviera efectos solamente en Austria.

El asunto llegó al Tribunal Supremo de Austria, que elevó al TJUE varias cuestiones prejudiciales. En lo esencial, el tribunal austriaco pregunta si una orden judicial que exija retirar no sólo los contenidos notificados a la plataforma, sino también cualquier otro contenido idéntico o similar, publicado por cualquier usuario, es compatible con el artículo 15.1 de la Directiva de comercio electrónico (DCE), que prohíbe imponer obligaciones generales de supervisión de los contenidos almacenados. También pregunta al TJUE si puede exigirse la retirada de los contenidos con efectos en todo el mundo (y no sólo para un determinado Estado miembro). Ambas cuestiones tocan problemas particularmente sensibles.

Alcance extraterritorial

En cuanto a la cuestión sobre el alcance territorial, el AG señala que, desde el punto de vista de la competencia judicial, sería posible, en principio, que los tribunales de un Estado miembro ordenaran retirar contenidos fuera de dicho Estado (ap. 86). Ahora bien, en cuanto al fondo, el AG destaca, por una parte, que la Directiva de Comercio Electrónico no regula los efectos extraterritoriales de las órdenes dirigidas contra prestadores de alojamiento, las cuales, conforme al art. 14.3, se sujetan al Derecho nacional. Por otra parte, también en cuanto al fondo, advierte que la acción que se ejerce no se basa en el Derecho de la UE, sino en el Derecho nacional. En efecto se trata de una acción basada en las normas generales del derecho civil por atentado al honor (y no por protección de datos), y esta materia no se halla armonizada en el Derecho de la UE. Por ello, concluye que el alcance territorial de la orden debe analizarse a la luz del Derecho internacional público y privado no armonizado en el ámbito de la UE (ap. 92).

Aún así, el AG efectúa algunas consideraciones sobre el alcance territorial, para el caso de que el TJUE no siga la anterior argumentación. En este sentido apunta que los tribunales deberían en todo caso adoptar una posición comedida, y limitar en lo posible los efectos extraterritoriales, sin ir más allá de lo necesario para garantizar una protección que nunca puede ser absoluta, pues debe compaginarse con otros derechos fundamentales (ap. 100).

Supervisión general y supervisión en casos específicos

El art. 15.1 DCE prohíbe imponer a los prestadores de servicios de alojamiento de datos “una obligación general de supervisar los datos que transmitan o almacenen”, así como “una obligación general de realizar búsquedas activas de hechos o circunstancias que indiquen actividades ilícitas”. Ahora bien, el considerando 47 advierte que esa prohibición se refiere sólo a obligaciones de carácter general, y no a “obligaciones de supervisión en un caso específico”, ni a órdenes dictadas por las autoridades nacionales de conformidad con el derecho nacional.

¿Cuál es, sin embargo, la diferencia entre una obligación de supervisión general y una obligación de supervisión para un caso específico? ¿Dónde puede trazarse la línea divisoria? La Directiva no ofrece respuesta. Una obligación de evitar la presencia de cualesquiera contenidos ilícitos en la plataforma sería sin duda una obligación general de supervisión. Ahora bien, también la orden de impedir que un contenido ilícito concreto, que ya fue retirado, aparezca de nuevo en la plataforma, exigiría supervisar todos los contenidos que suben cualquiera de los usuarios, para poder detectar si alguno coincide con aquel cuya reaparición se desea evitar. Por tanto, un sistema de filtrado para detectar un material concreto (por ejemplo, una determinada obra protegida por derechos de propiedad intelectual), podría entenderse también como una obligación de carácter general, puesto que alcanza a todos los contenidos de la plataforma (si es que este es el criterio que determina la naturaleza general de la supervisión)

El TJUE no ha ofrecido, por ahora, criterios claros para determinar distinguir entre obligaciones de supervisión generales y específicas. Lo más que ha hecho es calificar algún caso como obligación general y apuntar algún ejemplo de supervisión específica.

En L’Oréal v. eBay (ap. 139), el TJUE declaró que entran dentro de la prohibición del artículo 15.1 DCE las órdenes que requieran que el intermediario supervise activamente los datos de cada uno de sus clientes para impedir cualquier futura infracción de derechos de propiedad intelectual. En el mismo sentido se pronunció el TJUE en Scarlet Extended (ap. 36) y en Sabam v Netlog (ap. 34). En este último caso, referido a los contenidos alojados por la red social Netlog, el TJUE apreció que la orden que se pretendía imponer supondría exigir a Netlog: (a) identificar entre todos los archivos almacenados por todos sus usuarios aquellos que pueden contener obras cuyos derechos de propiedad intelectual correspondan a los demandantes; (b) determinar si tales archivos se ponen a disposición ilícitamente; y (c) bloquear la puesta a disposición de los que estime ilícitos (ap. 36).

El TJUE concluyó que esta supervisión (aunque sólo persiga detectar los archivos cuya propiedad intelectual corresponde a los demandantes) sería incompatible con el art. 15.1 DCE (ap. 38). Además, no respetaría un justo equilibrio entre los derechos e intereses en presencia, ya que implicaría una vulneración sustancial de la libertad de empresa del prestador de servicios (ap. 46) al ser una carga excesivamente gravosa; vulneraría también el derecho a protección de datos personales (pues implicaría el tratamiento de la información relativa a los perfiles de la red social) (ap. 49); y podría violar también el derecho a recibir e impartir información, dado el riesgo de bloqueo de contenidos lícitos (ap. 50).

Por lo demás, el TJUE no ha declarado que cualquier otro caso que no reúna las características señaladas deberá considerarse una supervisión específica y admisible. Sí ha apuntado, sin embargo, un ejemplo de supervisión que le parece admisible. Me refiero a la mención que el TJUE hace L’Oréal v. eBay en el sentido de que se podría ordenar a eBay impedir futuras infracciones de marca por parte del mismo vendedor y en relación con las mismas marcas ya infringidas (ap. 141). No es muy claro a qué se refiere allí el Tribunal, porque habla de “suspender” al usuario en cuestión. Pero probablemente esté admitiendo que se puede obligar al prestador del servicio de alojamiento (en este caso eBay) a supervisar los contenidos que suba ese concreto usuario (no todos los contenidos de todos los usuarios de la plataforma), y sólo para evitar lesiones a las mismas marcas que ya fueron objeto de una infracción inicial por dicho vendedor.

En Tommy Hilfiger (un caso ulterior referido a un intermediario físico que gestiona un mercado presencial), el TJUE resume el contenido de la sentencia L’Oréal v. eBay, diciendo que en ella se estableció que “se puede obligar al intermediario a que adopte medidas que contribuyan a evitar que se produzcan nuevas infracciones de la misma naturaleza por parte del mismo comerciante” (ap. 34). La cita, en realidad, amplia considerablemente lo dicho en L’Oréal v. eBay, donde se exigía no sólo que se tratara de infracciones de la misma naturaleza, sino que fueran además “en relación con las mismas marcas” (ap. 141). Pero es este un modo de autocita creativa al que nos tiene acostumbrados el Tribunal, que a menudo justifica una posición dando a entender que ya la había sostenido en sentencias anteriores a base de citar estas de un modo libre y descontextualizado.

En todo caso, lo que tenemos son algunos ejemplos de supervisión general y un ejemplo de supervisión específica. Es ciertamente posible (aunque todavía no confirmado por el TJUE) que otros casos concretos de supervisión o control puedan considerarse respetuosos tanto con la prohibición 15.1 DCE como con el justo equilibrio de los intereses en juego de los afectados. En ese terreno se adentra el AG Szpunar.

Análisis del Abogado General Szpunar

El AG Szpunar conecta la prohibición de imponer una obligación general de supervisión con los requisitos exigidos para gozar de la exclusión de responsabilidad prevista en el art. 14 DCE. Si la exclusión de responsabilidad por los contenidos alojados se basa en la falta de conocimiento de la ilicitud de los contenidos, obligar al prestador a monitorizar los contenidos de su plataforma sería tanto como presumirle conocedor de todo lo que aloja, de modo que no habría espacio para la exclusión de responsabilidad (ap. 38). Por otra parte, entiende Szpunar que si un proveedor es obligado a supervisar los contenidos, probablemente no podrá considerarse que desempeña una actividad neutra, meramente técnica, automática, y pasiva, sin conocimiento ni control de los contenidos alojados, como ha venido a exigir el TJUE (aps. 36 y 39). De ahí pasa a concluir que no es posible imponer a un intermediario una obligación que implique la pérdida de esa neutralidad (ap. 40).

A la vez, el AG constata que debe existir un umbral de supervisión compatible con la prohibición del art. 15.1, teniendo en cuenta el ya citado considerando 47, y también el propio art. 14.3, que dispone que la exclusión de responsabilidad no afecta a la posibilidad de exigir a un prestador de servicios “poner fin a una infracción o impedirla”. Igualmente, el art. 18 exige a los Estados miembros el establecimiento de tutela judicial adecuada para “poner término a cualquier presunta infracción y a evitar que se produzcan nuevos perjuicios contra los intereses afectados”.

Apoyándose en el caso L’Oréal v. eBay, el AG sostiene que es posible imponer una obligación de detectar e impedir la difusión de información ilícita en el futuro, sin necesidad de ser notificado de la presencia de tales contenidos (ap. 44). Interpreta que la sentencia L’Oréal v eBay exige para ello que la obligación parta de una primera infracción reconocida y que las lesiones futuras a impedir sean “de la misma naturaleza, provengan del mismo usuario y vayan dirigidas contra los mismos derechos, en ese asunto, el derecho de marcas” (ap. 45). De modo similar a como vimos que hace el TJUE en Tommy Hilfiger, con este último requisito parece indicar el AG que bastaría con que se tratara de infracciones de la misma naturaleza (infracciones marcarias), cuando en realidad lo que dice L’Oréal v eBay es que se trate se trate de infracciones contra las mismas marcas (L’Oréal v eBay ap. 141).

Ciertamente L’Oréal v eBay se limita a indicar un supuesto que considera conciliable con el art. 15.1, sin que ello impida que pueda haber otros casos de supervisión igualmente amisibles. En cualquier caso, lo que el AG extrae de L’Oréal v eBay es que la supervisión “activa” centrada en el caso específico de una determinada lesión puede ser conciliable con la prohibición del art. 15.1 (ap. 46).

Obligaciones de supervisión de carácter específico

El AG señala que para apreciar si se trata de una obligación para un caso específico o bien de una obligación de carácter general y por tanto prohibida, debe tenerse en cuenta “la duración de dicha supervisión, así como las precisiones relativas a la naturaleza de las lesiones, su autor y su objeto” (ap. 50).

Aplicando estos criterios al caso de la obligación pretendida contra Facebook, el AG califica de supervisión “específica”, y por tanto compatible con el artículo 15.1, la obligación de buscar e identificar datos idénticos a los ya declarados ilícitos, tanto si los sube el usuario que cometió la lesión inicial como si los carga cualquier otro usuario de la plataforma. Aquí, el AG se aparta de un modo evidente del ejemplo proporcionado por L’Oréal v. eBay, que apuntaba sólo a contenidos procedentes del mismo usuario infractor. Admite Szpunar que se trataría, efectivamente, de una supervisión que comprendería todos los datos que se difundan a través de la plataforma (ap. 59). Aun así, el AG defiende que sería una obligación de supervisión admisible.

Argumenta por una parte que: (a) es una obligación “centrada en el caso específico de una lesión” (ap. 60); y (b) “puede detectarse con la ayuda de herramientas informáticas sin que el prestador de servicios de alojamiento de datos esté obligado a realizar un filtrado activo y no automático de la totalidad de los datos difundidos mediante su plataforma” (ap. 61). Aquí el AG introduce sutilmente un matiz novedoso, dando a entender que la prohibición del art. 15.1 se refiere a los sistemas no automáticos.

Por otra parte, considera que se respeta el equilibrio de intereses, porque: (a) no se requieren medios extraordinarios que puedan suponer una carga extraordinaria, y por tanto no hay una interferencia sensible con el derecho a la libertad de empresa de la plataforma (ap. 63); (b) es una medida necesaria para garantizar la protección eficaz de los derechos de la intimidad y personalidad en internet (ap. 64); (c) no interfiere en la libertad de expresión porque sólo alcanza a datos ya declarados ilícitos (ap. 65). En este último punto aclara, sin embargo, que aunque se trate de los mismos datos la ilicitud puede variar en función del contexto, y por tanto hay que ofrecer al tercero, que no fue parte en el procedimiento inicial en el que se dictó la orden de supervisión, la posibilidad de impugnar la retirada del contenido.

¿Es posible, además, obligar a la plataforma a detectar y retirar datos similares y no idénticos a los declarados ilícitos? Después de advertir que en todo caso el órgano judicial debería precisar qué se entiende por “datos similares” para respetar el principio de seguridad jurídica, el AG responde que es posible imponer esa obligación en relación con los datos que procedan del mismo usuario que cometió la ilicitud inicial, siempre que además se le permita impugnar judicialmente la retirada (ap. 72). En cambio, considera que una obligación de detectar y retirar datos similares procedentes de otros usuarios exigiría el empleo de soluciones sofisticadas, con lo que: (a) su papel dejaría de ser neutro; y (b) “al aplicar una forma de censura, pasaría a contribuir de forma activa” en la plataforma (ap. 73). Por otra parte, tal obligación no respetaría el equilibrio de intereses, pues: (a) el coste las soluciones requeridas afectaría seriamente a la libertad de empresa; y (b) implicaría una censura que limitaría la libertad de expresión y de información (ap. 74).

¿Cómo responderá el Tribunal?

Los planteamientos del AG Szpunar son en cierto modo novedosos. Trata de abrir camino en el terreno inexplorado de órdenes que vayan más allá de exigir la retirada de contenidos ya retirados y vueltos a subir por parte del mismo usuario. Para sostener sus conclusiones aporta diversos elementos. Viene a admitir cierto margen para imponer obligaciones de vigilancia que denomina “activa” y que entiende que serían compatibles con la neutralidad exigida por el TJUE para conceder la limitación de responsabilidad del art. 14. Serían supuestos que califica de vigilancia activa pero automática, que el AG parece ligar a la facilidad de detección del contenido. En cambio, sugiere que resultarían inadmisibles las obligaciones que exijan sistemas sofisticados, apuntando que el recurso a tales sistemas de detección implicaría un carácter activo (quizás hay que entender excesivamente activo), que acarrearía la pérdida de la neutralidad.

A la vez, supedita la admisibilidad al respeto del equilibrio de intereses, que parece concebir como un análisis ulterior, esto es, una vez que se ha determinado que la obligación no es de carácter general. A este respecto tiene en cuenta el coste que supondría para la plataforma (como interferencia a la libertad de empresa), y la afectación a los derechos de expresión e información. Parece sugerir que cuanto más sofisticado sea el sistema, o dicho de otro modo, cuanto más complejo sea discernir si el contenido debe ser retirado o no, por tratarse de un contenido no idéntico a uno ya declarado ilícito de modo expreso, mayor será la interferencia con la libertad de expresión e información. Y a la vez, deja claro que esta labor de detección más sofisticada, que no busca exclusivamente contenidos idénticos a los ya declarados ilícitos específicamente, debería limitarse a los contenidos subidos por el mismo usuario que cometió la infracción inicial.

Las conclusiones de Szpunar son sin duda relevantes. Habrá que esperar a conocer la sentencia para ver si el TJUE admite esta doble ampliación de lo que hasta ahora había admitido: la supervisión de contenidos de otros usuarios (aunque se limite a contenidos idénticos) y la supervisión de contenidos del mismo usuario de carácter similar al declarado ilícito (algo que cabe entender que va más allá del criterio apuntado en L’Oréal v. eBay).

La sentencia también será de gran importancia para ver en qué términos debe transponerse el artículo 17 la Directiva sobre derechos de autor en el mercado único digital, que exige, en la práctica, establecer sistemas de reconocimiento de contenidos (17.4), y a la vez declara sin empacho que no impone ninguna obligación general de supervisión (17.8).

No comments yet

Leave a Reply

Fill in your details below or click an icon to log in:

WordPress.com Logo

You are commenting using your WordPress.com account. Log Out /  Change )

Google photo

You are commenting using your Google account. Log Out /  Change )

Twitter picture

You are commenting using your Twitter account. Log Out /  Change )

Facebook photo

You are commenting using your Facebook account. Log Out /  Change )

Connecting to %s

%d bloggers like this: