POLÉMICA TENDENCIA: ESCANEAR IRIS A CAMBIO DE CRIPTOMONEDAS
Por un pago entre 20 y 80 mil pesos en criptomonedas. Eso habrían recibido miles de chilenos por “vender” su iris a una gran base de datos, tal como si fueran huellas dactilares. Así lo dio cuenta un reportaje de Meganoticias, revelando que a la fecha “200 mil chilenos” ya han escaneado sus ojos.
Se trata de una campaña a nivel mundial, que paga por almacenar información de las personas a través de del iris.
Según explicaron, esto corresponde a la red financiera “Worldcoin” la cual ya cuenta con más de cuatro millones de registros únicos, con cerca de 400 mil por semana, quienes gracias al registro de sus iris tendrían una “identidad imposible de suplantar”, en el mundo de la inteligencia artificial.
Por esto, ya no sería novedad ver filas de gente parándose frente a una bola de metal para que escaneen sus ojos.
“Es una forma de verificar tu ‘humanidad’ de verdad a escala global, a eso le llamamos WORLD ID; y dos, es una criptomoneda llamada ‘Worldcoin’, y todo el que se registra tiene parte de su propiedad”. explicó el CEO de Tool for Humanity, consignó el citado medio.
Pero, no todo sería color de rosa en la “venta” del iris, por lo tanto, el mensaje, aunque suene redundante, es a tener “ojo”.
¿Puede ser peligroso “vender” el iris?
El principal riesgo, según explicó el presidente de la comisión de Defensa del Senado, Kenneth Pug, es que no se sabe a ciencia cierta en qué será usada dicha información de identidad.
“Creo que no existe una definición clara para qué propósito está siendo usados este registro de datos de iris. La identidad digital es fundamental, la necesitamos para verificar muchos trámites, pero si no sabemos qué uso se le va a dar a esa información, el riesgo es gigantesco”.
Además, el subcomisario Julio Vargas, de la Brigada Investigadora de Cibercrimen de la PDI, comentó
que “acceder a la entrega de un dato sensible como lo es el iris, podría convertirse en un problema para las personas en algún futuro, por cuanto podrían ser víctimas de algún fraude o tipo de estafa, o incluso (podría provocar) la discriminación de las personas, por cuanto este dato, al ser analizado por alguna inteligencia artificial, podría entregar, por ejemplo, algún tipo de antecedente médico”, advirtió a Meganoticias.