Google enfrenta problemas al usar IA para procesar solicitudes policiales de datos

En un intento por gestionar el creciente volumen de solicitudes de datos de fuerzas de seguridad, Google ha recurrido a la inteligencia artificial (IA), pero los esfuerzos no están siendo tan exitosos como la compañía había anticipado. Esta es la situación tras el despido de parte del equipo encargado de asegurar la legalidad de las solicitudes gubernamentales de información personal de los usuarios.
Desbordados por la cantidad de solicitudes policiales, Google recurre a la IA
Con un aumento constante de demandas de agencias policiales y gubernamentales, que alcanzaron las 236,000 en el primer semestre de 2024, Google ha intentado agilizar el proceso mediante herramientas basadas en IA. Estas herramientas están diseñadas para procesar órdenes judiciales y citaciones antes de que un miembro del equipo legal de la empresa las revise.
El equipo responsable de la gestión de solicitudes legales (LIS por sus siglas en inglés) se ha visto sobrepasado por la cantidad de peticiones que recibe, lo que llevó a la compañía a implementar la IA para tratar de reducir la carga de trabajo manual. Sin embargo, los resultados no han sido los esperados, según reportes de empleados actuales y anteriores.
La IA de Google no ha logrado cumplir con las expectativas
A pesar de que se entrenaron modelos de IA usando el trabajo realizado por el equipo LIS, las herramientas desarrolladas hasta ahora no han sido capaces de replicar con éxito la calidad y precisión del trabajo humano. Fuentes cercanas al proyecto han señalado que las herramientas han generado más trabajo, ya que las solicitudes procesadas por IA deben ser verificadas y, en muchos casos, reescritas antes de ser enviadas a las autoridades correspondientes.
Además, 10 ingenieros encargados de desarrollar la IA fueron despedidos, lo que ha retrasado aún más la implementación de las herramientas. Un miembro del equipo comentó que calificar a estas herramientas como “IA” es una exageración, ya que aún no han logrado cumplir con los estándares esperados para una tecnología tan avanzada.
La propuesta de usar IA para procesos legales es cuestionada
El uso de la IA para gestionar solicitudes legales ha sido ampliamente criticado. Cooper Quintin, tecnólogo sénior de la Electronic Frontier Foundation (EFF), considera que es peligroso emplear IA en procesos legales, debido a la tendencia de estos sistemas a “alucinar” o generar información errónea. Recientemente, varios jueces advirtieron sobre los riesgos de usar IA para redactar documentos legales después de que el software falsificara citaciones.
Quintin señaló que, en lugar de confiar en la IA para gestionar solicitudes de datos policiales, Google debería contratar a más personal para abordar el volumen creciente de solicitudes. La preocupación principal radica en que los modelos de IA no pueden detectar posibles fraudes o falsificaciones, lo cual es un problema crítico en el ámbito de las solicitudes de datos, donde se han reportado casos de delincuentes que se hacen pasar por autoridades para robar información personal.
El riesgo de fraude con solicitudes falsas
Uno de los mayores problemas es el aumento de solicitudes fraudulentas. En muchos casos, delincuentes se han hecho pasar por departamentos policiales o autoridades gubernamentales utilizando cuentas de correo electrónico comprometidas para obtener información personal. Según el FBI, este tipo de incidentes ha ido en aumento, lo que agrava aún más la situación.
Quintin advirtió que un sistema de IA que no sea lo suficientemente robusto podría aumentar los riesgos de fraude y complicar aún más el proceso de verificación de solicitudes. “Google ya tiene problemas para manejar informes falsos y solicitudes fraudulentas. Con una IA ineficaz, el problema podría empeorar”, añadió.
El futuro incierto de la IA en Google
En resumen, aunque Google intentó optimizar el manejo de las solicitudes de datos policiales con la implementación de IA, los resultados hasta ahora han sido insuficientes. Los despidos dentro del equipo encargado del proyecto y los problemas con la tecnología han generado incertidumbre sobre el futuro de la inteligencia artificial en este proceso. Por el momento, parece que la solución más efectiva sería aumentar el personal del equipo LIS para hacer frente a la creciente demanda, en lugar de depender de una IA que aún no está lista para abordar estas tareas con precisión