lun. Abr 29th, 2024


La aplicación de Google se ve en un teléfono inteligente en esta ilustración tomada el 13 de julio de 2021.— Reuters

Google se ha negado a devolverle a un hombre su cuenta después de que marcó las imágenes médicas de su hijo como “material de abuso sexual infantil” (CSAM), El guardián informó citando el New York Times.

Los expertos han dicho que es inevitable que la tecnología se comporte de esa manera. Han estado advirtiendo sobre las limitaciones de los medios de detección automática de abuso sexual infantil.

Dado que gigantes como Google tienen una enorme cantidad de datos privados, se ven presionados a utilizar la tecnología para hacer frente a los problemas consiguientes.

El hombre fue identificado como Mark por el NYT. Había tomado fotografías de la ingle de su hijo para enseñárselas a un médico. Luego, la imagen fue utilizada por el médico para diagnosticar al niño y recetarle antibióticos.

Dado que las fotos se subieron automáticamente a la nube, Google las marcó como CSAM.

Dos días después, Mark perdió el acceso a todas sus cuentas de Google, incluido su servicio telefónico Fi.

Le dijeron que su contenido era “una violación grave de las políticas de la empresa y podría ser ilegal”.

Para sorpresa de Mark, se marcó otro video en su teléfono con su hijo, que luego fue utilizado por el departamento de policía de San Francisco para abrir una investigación sobre él.

Si bien Mark fue autorizado legalmente, Google se ha negado a retroceder y restablecer su cuenta.

Un portavoz de Google dijo que su tecnología detectó solo cosas que la ley de EE. UU. define como MASI.

Daniel Kahn Gillmor, tecnólogo sénior del personal de la ACLU, dijo que este era solo un ejemplo de cómo sistemas como estos pueden dañar a las personas, informó El guardián.

Los algoritmos tienen múltiples limitaciones. Uno de ellos es la incapacidad de diferenciar entre imágenes tomadas para abuso sexual y con fines médicos.

“Estos sistemas pueden causar problemas reales a las personas”, dijo.



Source link