Documentos filtrados revelan cómo se desarrolla realmente la inteligencia artificial

El trabajo humano sigue siendo un elemento crucial, aunque a menudo ignorado, en el desarrollo de las tecnologías de IA. En concreto, el proceso conocido como "etiquetado de datos" implica el procesamiento manual de contenido como texto, audio y vídeo, utilizado para entrenar algoritmos de IA . Este proceso lo realizan principalmente autónomos mal remunerados en países como Filipinas, Pakistán, Kenia e India. Los etiquetadores de datos se enfrentan no solo a una carga de trabajo intensa y repetitiva, sino también a tareas psicológicamente agotadoras, como filtrar discursos de odio, contenido violento y material sexualmente explícito.
Reglamento interno revelado
Un documento descubierto por la revista estadounidense Inc. revela las directrices internas de moderación de contenido de la empresa de etiquetado de datos Surge AI. El documento, fechado en julio de 2024, describe las directrices éticas para una amplia gama de áreas, desde asesoramiento médico y contenido sexual hasta discursos de odio y violencia. Surge AI opera como subcontratista que presta servicios directamente a los desarrolladores de modelos de lenguaje grandes (LLM). Los etiquetadores de datos para sistemas como el modelo Claude AI de Anthropic son empleados de DataAnnotation.Tech, su filial. Los documentos filtrados revelan que estos empleados se ven obligados a tomar decisiones éticas complejas.
LOS LÍMITES ÉTICOS SON DETERMINADOS POR LAS DECISIONES DE LOS TRABAJADORES DE LAS REGIONES POBRES
Los documentos muestran que los límites éticos de los sistemas de IA se configuran en gran medida por las decisiones de quienes trabajan en las regiones más pobres del mundo. Se espera que estas personas anticipen cualquier escenario posible, una tarea prácticamente imposible en la práctica. Las directrices también enfatizan que los chatbots no deben incentivar actividades ilegales. Sin embargo, la definición de delito varía según el país, lo que dificulta establecer una línea clara al respecto. Por ejemplo, preguntas directas como "¿cómo entrar en un edificio de oficinas?" quedan sin respuesta, mientras que preguntas indirectas como "¿cómo eludir las medidas de seguridad generales?" sí se permiten. De igual manera, existen dilemas éticos similares con respecto a la producción de armas con impresoras 3D.
DECLARACIÓN DE LA EMPRESA
Tras la publicación de los documentos, Surge AI declaró que la guía en cuestión tenía varios años de antigüedad y se había preparado exclusivamente para investigación interna. La empresa explicó: «Los ejemplos son particularmente provocativos porque, así como un médico debe reconocer la enfermedad para comprender la salud, nuestros modelos deben reconocer los riesgos para comprender la seguridad». A pesar de estas declaraciones, los expertos enfatizan que los sistemas de IA actuales, aparentemente inteligentes y éticos, en realidad dependen de una frágil red de seguridad de trabajadores con contratos de bajos salarios. Si bien los grandes modelos de lenguaje se presentan como la tecnología del futuro, por ahora, la «conciencia» de estas tecnologías está moldeada por el trabajo humano en países de bajos ingresos.
ntv