Ir al contenido

derechos

FaceApp, o los riesgos a la privacidad como juego

Podríamos asegurar que con la aplicación FaceApp se confirma aquello que observamos desde hace tiempo: la mejor forma de viralizar los riesgos a la privacidad en internet es hacerlo como un juego. El humor, el juego y la curiosidad parecen ser -algunos estudios lo probarían- la manera más efectiva de lograr que una pieza de información se viralice. Ya sucedió tiempo atrás con #10YearChallenge y ahora se repite con FaceApp, que juega con todo eso y claro, lo logró.

FaceApp es una aplicación para celulares que manipula la fotografía de una persona para mostrar como luciría siendo anciano -añadir una sonrisa, cambiar el color de pelo o de sexo son otras funciones de la aplicación, aunque aquella es la que popularizó esta app-. Las principales reservas de los especialista en seguridad informática radican en el posible uso indebido de los miles de datos biométricos que recolecta el sistema. 

El humor permitió que algunos celebraran su buen estado o lamentaran el resultado de la manipulación de la imagen. Y como no podía faltar, rápidamente circularon memes con el filtro aplicado a famosos y políticos.

El creador de la aplicación, el ruso Yaroslav Goncharov, explicó que el sistema utiliza una forma de inteligencia artificial conocida como red neuronal para escanear el rostro y modificarlo según el filtro elegido.

Las preguntas que surgen entre aquellos más atentos a la seguridad en el ámbito digital, advierten sobre el trasfondo de aplicaciones como esta: ¿qué sucede con los miles de datos biométricos que recolecta el sistema?, ¿quién almacena esa información sensible que permite la identificación facial similar a la utilizada por las fuerzas de seguridad?

“El reconocimiento facial se está convirtiendo rápidamente en uno de los elementos clave de la identidad digital y, por lo tanto, las personas deberían considerar la posibilidad de proteger su imagen facial de la misma manera que deberían proteger otros elementos de su identidad, como su fecha de nacimiento, número de contribuyente y demás”, advirtió David Vaile, presidente de la Fundación Australiana de Privacidad.

Los medios no se quedaron atrás en hacer uso y ayudar a difundirla sin la menor referencia, en la mayoría de los casos, a los riesgos que su uso conlleva.

Internet no olvida. Deberíamos pensar antes de publicar, a fin de proteger como un bien preciado nuestra identidad digital.


Fuentes:
Página/12
40deFiebre.com
También te puede interesar:

Niños PAMI: enfermedades, obesidad y sobrepeso vs. kiosco saludable

Abundancia de snacks, gaseosas, papas fritas, golosinas y gaseosas. El resultado: los Niños PAMI, chicos y chicas con diabetes, desnutrición, enfermedades cardiovasculares y respiratorias, y los mayores niveles continentales de obesidad y sobrepeso.

El chef Mariano Navarro publicó su libro “Kiosco saludable” y desde hace años enseña cocina sana en las escuelas.

En esta entrevista para el programa Decí Mu, Mariano habla sobre las mentiras que vende la industria -cereales, vitaminas, hierro, etc- y sobre sus recetas para reconvertir el kiosco escolar en algo diferente.


Fuente: lavaca.org
También te puede interesar:

El Parlamento Europeo pierde una oportunidad histórica

Con la aprobación en el Parlamento Europeo del texto final de la directiva de Copyright, la Unión Europea ha perdido la oportunidad histórica de desarrollar legislaciones de derechos de autor adaptadas a Internet y al siglo XXI. Así se afirma en Xnet, el sitio del grupo fundador en España de #SaveYourInternet, una coalición compuesta por grupos internacionales unidos para coordinar la campaña sobre los peligros ocultos en la nueva Directiva Europea sobre Copyright.

Según afirma la mencionada publicación, lo que se ha votado es un texto tecnófobo, hecho a medida de los monopolios del copyright y que además no garantiza el derecho de los autores a vivir dignamente de su trabajo.

Esta amenaza se centra en las trampas ocultas principalmente en dos artículos:

  • Artículo 13 (luego 17): prohibido subir contenidos sin licencia: Se considerará a las plataformas, responsables de cualquier infracción de derechos de autor que cometan sus usuarios y se les conmina a tomar medidas preventivas. Esto podría desembocar en el filtrado algorítmico de subida, es decir censura previa, automática y masiva de Internet.
  • Artículo 11 (luego 15): Prohibido enlazar sin licencia: La propuesta del artículo 11, conocida como “Linktax” -impuesto al enlace- crea un nuevo “derecho” económico para la patronal de la prensa escrita. Este “derecho” además implica restringir indefinidamente la posibilidad de citarla, es decir que lo más seguro para cualquier plataforma será no enlazar a ningún medio sin permiso explícito.

En este análisis, la publicación asegura que con leyes de este tipo la patronal de la prensa podría acosar legalmente hasta el cierre a agregadores sociales y comunidades como Meneame o Reddit, eliminando a cualquier nuevo competidor y consolidando su posición monopolística.

El efecto que tendría estas normas arbitrarias sobre la libre conversación en Internet y sobre la difusión y acceso a la cultura y a la información sería devastador y contrario a la idea inicial de los padres de la World Wide Web, aquella de una arquitectura abierta para compartir enlaces sin restricciones. Esa fue la clave en su éxito.

Una propuesta democrática con vocación de consenso amplia, que hubiese aspirado a garantizar el trabajo digno de los autores sin vulnerar derechos fundamentales de los ciudadanos, debería haber partido de la base de que el concepto de autor o medio ha cambiado en los últimos 20 años. Desde el inicio de la web 2.0, el contenido generado por los usuarios ha pasado de ser un interesante experimento social a la realidad digital en la que nos sumergimos cada día. La UE, aseguran, ha perdido una oportunidad de tratar a sus ciudadanos como generadores de contenido y no como simples “ladrones de los contenidos” de una élite.


Fuente (texto e imagen): Xnet
También te puede interesar:

#10yearchallenge: como toda viralización es un riesgo, y los medios lo alientan

Crédito de la captura de pantalla: @JoyCfTw

La instantánea viralización del hashtag #10yearchallenge -que invita a los usuarios de las redes sociales a compartir imágenes comparando una foto personal de 2009 con otra de 2019- activó las alarmas sobre los riesgos que ello implica: este tipo de experimentos puede ser una mina de oro para entrenar sistemas de reconocimiento facial.

Kate O’Neill, editora de Wired, dio el alerta en un artículo explicando como este tipo de publicaciones en las redes sociales podrían tener un objetivo diferente al esperado: todas esas fotos son una sencilla forma de entrenar esos sistemas. 

Facebook, Twitter, Microsoft e Instagram, por tomar algunos ejemplos, bien podrían usar esas fotos para entrenarlos. Si bien no existen pruebas de que esas fotos se hayan usado para ese propósito, lo cierto es que están experimentando con algoritmos para tal fin. Los últimos escándalos afectando la privacidad de los usuarios de Facebook, por caso, no hacen mucho para despejar aquellas sospechas. Se debe tener en cuenta que ellos ya usan el reconocimiento facial para reconocernos en las fotos que se publican, aunque usen la repetida letanía de “no compartimos ni almacenamos imágenes o información personal identificable”. Casi un acto de fe de nuestra parte.

Por eso no es de extrañarse que Facebook haya lanzado un comunicado oficial sobre el tema. Aclaran en él que se trata de un meme generado por usuarios que se volvió viral por sí solo y que ellos no lo iniciaron. Y ofrecen la posibilidad de activar o desactivar el reconocimiento facial en cualquier momento.

Más allá de estas consideraciones, creemos necesario destacar la participación de los medios en esta mecánica de la viralización. Como se observa en la imagen de más arriba -de un medio en particular, pero por supuesto no el único-, muchos de ellos se han dedicado a difundir el tema,  la mayoría de las veces en tono humorístico pero sin alertar sobre los riesgos que implica: que un inocente juego puede esconder mucho más de lo que se ve a simple vista. Nada menos que un riesgo para nuestra privacidad. 


Fuente: Xataca
También te puede interesar:

Jaron Lanier y los algoritmos de los gigantes de datos

En realidad, conozco los algoritmos. No soy un extraño que mira y critica. Hablo como científico informático, no como científico social o psicólogo. Desde esa perspectiva, puedo ver que el tiempo se está acabando. El mundo está cambiando rápidamente bajo nuestro mando, por lo que no hacer nada no es una opción. El algoritmo está tratando de captar los parámetros perfectos para manipular el cerebro, mientras que el cerebro, para hallar un significado más profundo, está cambiando en respuesta a los experimentos del algoritmo… Ya que el estímulo no significa nada para el algoritmo, pues es genuinamente aleatorio, el cerebro no está respondiendo a algo real, sino a una ficción. El proceso -de engancharse en un elusivo espejismo- es una adicción.
Jaron Lanier, escritor, informático y compositor estadounidense, y pionero en el campo de la realidad virtual.

También te puede interesar:

Perdiendo el control

Cuando pienso en mi propio uso de Facebook, a menudo pienso en el primer sitio web que hice, y en cómo ese sitio sirvió exactamente para el mismo propósito que Facebook ahora. Mi pecado original no fue abrir una cuenta de Facebook. Fue abandonar mi propio sitio web que yo mismo controlaba.
Jason Koebler, en Motherboard

También te puede interesar:

Vivimos en casas de cristal

Sabemos que estamos siendo vigilados a través de nuestros móviles, computadoras y cámaras. Pero como no hacemos nada malo, nos sentimos a salvo de todos modos. Marta Peirano, jefa de Cultura en eldiario.es y autora del libro El Pequeño Libro Rojo del activista en Red avisa en esta charla que es urgente comenzar a proteger nuestro anonimato en la red, y lo hace con ejemplos contundentes.


Fuente: TEDx Talks
También te puede interesar:

- Ir arriba -