La inteligencia artificial (AI) te necesita
Tu tienes un papel en el futuro de la AI: ¿estás listo para el desafío?
Esta publicación es parte de una serie sobre inteligencia artificial (AI), su implicación y aplicación actual. En este caso planteamos el rol que, como individuo y sociedad, debemos tener frente al desarrollo actual y futuro de la AI. El objetivo es dotar a la AI de un sentido claro en su finalidad social y que recoja la diversidad y complejidad de la condición humana, no solo de unos pocos que en este momento la están creando y desarrollando.
Sobre este tema, una fuente interesante es Verity Harding, una destacada experta en inteligencia artificial y políticas públicas. Ha trabajado en Alphabet (Google) y actualmente en la Universidad de Cambridge. Es autora del libro ‶AI Needs You: How We Can Change AI's Future and Save Our Own″1 (2024), donde aboga por una mayor participación pública en el desarrollo de la IA2.
Lo que hoy exponemos es una reflexión sobre la AI, no en su faceta tecnológica, sino en los valores y principios sobre los que se sustenta y la configuran.
La ciencia y la tecnología no son neutrales, sino intrínsecamente políticas, dictadas por valores humanos y las preferencias de su tiempo.
Por la capacidad de transformación social y económica que se le supone a la AI, transciende de la opinión, criterios e intereses de unos pocos expertos y empresas (la mayoría de ellos no rinden cuentas y son difíciles de escrutar) y alcanza a la mayoría de nosotros. Por ello, es de vital importancia que un grupo amplio e inclusivo de personas se involucre en la configuración de su futuro, participando en las conversaciones, decisiones y políticas que determinaran cómo se puede y se debe crear, aplicar y usar la AI. Que definan los valores, principios y gobernanza que garanticen que esta tecnología emergente transforme nuestro mundo en un lugar mejor. Que la AI sirva a un propósito y no a un beneficio.
«Science and technology are deeply influenced ans shaped by the society and culture in which they are developed.»
Partiendo de la base fundamental de que el propósito de la AI no puede ser ganar unilateralmente, conmocionar o hacer daño, más bien servir a los intereses y valores de la sociedad en general. Y por otra parte, el gran esfuerzo que supone poner de acuerdo a gobiernos, compañías tecnológicas y los públicos en general, nos encontramos con un reto importante. No es nuevo en la historia, ha habido situaciones similares donde la naturaleza profundamente política de la ciencia impacta en las personas de la calle. Esto ya ocurrió y se solventó: fecundación in-vitro, ciencia aplicada a embriones humanos, modificación genética, energía nuclear, etc. Por lo tanto, seamos optimistas, la AI puede tener un marco de trabajo interesante para todos los involucrados. Complicado, sí; imposible, no.
Cuando se piensa en la AI hay varias formas de verlo, en función del grupo de interés. Los gobiernos piensan en su seguridad nacional, en el control social, en la supremacía tecno-política; las empresas en resultados económicos, impacto en los mercados y en (re)tener las mejores mentes; las personas en usos, beneficios y una vida más fácil.
«Technology is a mirror, reflecting back humanity and all its imperfections.»
Para que la AI se desarrolle de una manera global y sana, hay que proporcionar a todos ellos (y entre todos) claridad política, ética y legal que permita el progreso científico y social en beneficio del bien público (no exclusivamente de estados concretos, empresas especializadas o minorías privilegiadas). Cuando hablamos del bien público, hablamos de sociedades con culturas, valores, políticas, intereses y recursos tan dispares como EE. UU. o China. Es todo un reto. Un reto muy complejo pero emocionante.
«Technology is created by people, and it cannot be left purely up to those building AI to design its future alone. The stakes are to high.»
La AI es una oportunidad para construir una cooperación global en proyectos que beneficien y eleven a todo el planeta, respetando las mayores esperanzas y las preocupaciones más profundas de la gente. Si eso, a corto plazo, no fuese posible, al menos acordar en qué condiciones y de qué manera la AI no puede ser usada o las condiciones concretas para ámbitos muy específicos (salud, seguridad, etc.) ¡Menudo reto! Pero no te olvides que el ingenio humano, su pasión y ambición están constantemente transformando nuestro mundo, lograremos de una u otra manera alcanzar este reto.
Desde mi perspectiva personal, me quedo con tres conceptos que me resultan relevantes en este tema:
Transparencia: las decisiones sobre cómo se desarrolla y utiliza la IA deben ser abiertas y accesibles al escrutinio público. Hay que conocer cómo se construye (algoritmos, datos y proceso de entrenamiento), por qué, por quién y, sobre todo, para qué. Los modelos LLM3 abiertos son los que están más alineados con este concepto, esto no excluye que los modelos propietarios mejoren en transparencia, tanto de sus datos de entrenamiento como de sus usos especializados. La transparencia facilita la creación ética y responsable; en el peor de los casos permite anticipar sesgos y falta de equidad; aporta confianza, seguridad y garantiza que se respeten los valores democráticos y los derechos humanos. Para saber más sobre modelos LLM te recomiendo esta publicación:
Responsabilidad: la AI tiene que ser una herramienta que sirva a los mejores valores e intereses de las personas en su totalidad, en lugar de ser guiada únicamente por el lucro. Todos los actores involucrados, desde los creadores hasta las personas usuarios finales, deben asumir sus respectivos compromisos y las consecuencia de su uso. Fomenta un entorno de equidad, privacidad y de “rendición de cuentas”.
Participación democrática: hay que tener en cuenta la opinión pública, la inclusión activa y significativa de la ciudadanía en los procesos de toma de decisiones, gobernanza y desarrollo de la IA. Los innovadores tienen que escuchar de que manera la tecnología hace sentir a las personas, incluyendo personas de diferentes orígenes y con diversas perspectivas, los efectos que está teniendo y obrar en consecuencia. Hay que respetar e incluir las diferentes opiniones, incluidas las contradictorias. Hay que marcar principios o líneas para que la sociedad (nosotros) tengamos fe, tanto en la ciencia como en la democracia aplicada a la AI. Es el elemento central para asegurar que la inteligencia artificial (IA) evolucione de manera ética y beneficiosa para toda la sociedad.
Aquí queda esta reflexión, donde se ve que la AI te necesita, necesita tu opinión y valoración; la tuya y la de mucha gente muy diversa, como es el mundo donde hoy vivimos. No necesitas ser un experto en AI para tener una opinión informada sobre la AI. Aporta tu criterio, vale la pena.
Si eres una persona interesada en mejorar el pensamiento crítico y que la inteligencia artificial debe desarrollarse y utilizarse de manera que beneficie a toda la humanidad, no solo a países, sectores o grupos privilegiados, estas ideas son interesantes para ti.
Me gustaría conocer tu opinión y experiencia en este tema. Puedes dejar un comentario y compartir esta publicación para valorar mi trabajo.
Ahora me despido con la promesa de regresar la próxima semana con más descubrimientos, reseñas y opiniones.
¡Saludos y que tengas un buen día!
Eduardo, del Equipo de GoodSapiens
Harding, Verity. AI Needs You: How We Can Change AI's Future and Save Our Own. Estados Unidos: Princeton University Press, 2024.
Verity Hardingen entrevistada sobre el tema en Talks at Google :
Los modelos LLM son una nueva forma de representar el lenguaje. Es donde reside la potencia y calidad de los ″motores‶ o ″cerebros‶ de las aplicaciones de AI, como ChatGPT, Sora, Copilot, Gemini, etc.
Me gustó mucho este tema que trajiste esta semana Edu. 😄