Más controles hacen que la IA sea más justa

A medida que la inteligencia artificial aumenta su papel en todo, desde pruebas educativas hasta diagnósticos médicos, garantizar la equidad en los sistemas es un objetivo importante para los investigadores y formuladores de políticas, dado que reducir la justicia en un estándar puede provocar daños sociales.

«Cosas como la justicia e incluso la inteligencia son multidimensionales», dijo la investigadora Angelina Wang, ex estudiante de posgrado de Princeton que ha sido nombrada miembro de la facultad de Cornell Tech en Nueva York.

En un artículo publicado en la revista Patterns, Wang y Olga Rusakovsky, profesora asociada de informática y profesora asociada del Laboratorio de IA de Princeton, abogan por un enfoque multidimensional en el que la equidad se evalúe en múltiples niveles dependiendo del contexto de la aplicación.

Olga Rusakovsky, izquierda, y Angelina Wang.Foto de Emily Reid

Por ejemplo, considere los dos modelos de lenguaje principales utilizados para seleccionar a los beneficiarios de becas. Un LLM puede adoptar un enfoque ciego a la raza, el otro, un enfoque basado en la raza, puede ser mejor que otro. O considere un algoritmo de subtítulos de imágenes que asume el género de las personas. en imágenes. La inferencia de género puede ser baja visión. o la preferencia de los usuarios ciegos, pero no de las personas transgénero o no binarias. Un conjunto de pruebas que muestren cómo se trata en términos generales el género o la raza ayudará a los usuarios a comprender qué sistema podría funcionar mejor para ellos.

«Dependiendo del contexto, un modelo puede ser más justo que otro, y las métricas desglosadas pueden indicarlo», dijo Wang.

Según Rusakovsky, un experto en visión por computadora, el hecho de que los científicos informáticos se hayan centrado principalmente en construir algoritmos de IA más potentes ha planteado muchas preguntas sobre la justicia. métrica única y, en su lugar, adoptar un enfoque más multidimensional e integral.

Comprender exactamente cuántas pruebas de referencia se requieren para esto, cómo se deben presentar los datos y quién debe evaluarlos es el trabajo de la investigación en curso de Wang y Rusakovsky.

Ser capaz de entender cómo funcionan los modelos de IA y si son justos es increíblemente importante, afirmó Rusakovsky. «Tenemos una larga historia de desarrollo de tecnologías que dejan atrás a las poblaciones», afirmó.

A medida que entramos en la era de la IA, dijo, es importante pensar en cómo las nuevas herramientas afectan la equidad y afectan a los diferentes grupos de personas».

El artículo «Suites de referencia en lugar de tablas de clasificación» se publicó en Patterns el 8 de noviembre. Además de Rusakowsky y Wang, también estuvo Aaron Hertzman de Adobe Research.

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *