top of page
Buscar

Sobre gobernanza de la Inteligencia artificial: el fin del agente racional y los límites de la democracia


Fuente: Inteligencia Artificial, concepto sobre el ascenso de las máquinas.  

Cortesía: Vector illustration.



Por Daniel Camargo*


«Nosotros no somos terrones de arcilla, lo importante no es lo que se hace de nosotros,

sino lo que hacemos nosotros mismos de lo que han hecho de nosotros».

 Jean-Paul Sartre, Saint Genet, comediante y mártir (1952).

 

La Inteligencia Artificial (IA) no es una dinámica disruptiva de nuestro tiempo. Ha existido desde la Segunda Guerra Mundial cuando el brillante matemático, criptoanalista y pionero científico Alan Turing estableció el marco teórico para la inteligencia artificial (Computing Machinery and Intelligence, Mind, 49 (236), 433-460). Las investigaciones del matemático británico sentaron las bases a partir de las cuales se desarrollaron los primeros programas informáticos "inteligentes" para la resolución de problemas dentro y fuera del escenario bélico. En las últimas dos décadas del presente siglo el desarrollo en IA (y específicamente en aprendizaje automático) ha impulsado una gran cantidad de tecnologías digitales, incluidos algoritmos de recomendación, motores de búsqueda, drones autónomos, vehículos autónomos, sistemas de reconocimiento facial, Big Data, cloud computing, etc. En el contexto actual de semejante innovación y revolución tecnológica, viejos debates sobre la IA han renacido y han surgido otros nuevos, con el reciente aumento de la popularidad y la accesibilidad de novedosos chatbots, generadores de imágenes y otros modelos de lenguaje con soporte en enormes volúmenes de datos, también conocido como “IA generativa”. Estos modelos pueden conducir a avances sociales y generacionales como nunca lo había hecho ninguna otra tecnología impulsada por la IA. Sus capacidades, versatilidad y ubicuidad humanas sin precedentes han alimentado tanto un optimismo ilimitado hacia el progreso como el miedo existencial más pesimista en donde estamos avanzando ciegamente hacia la destrucción de la humanidad.

Los beneficios potenciales de la IA son enormes y van desde ayudar al planeta a abordar desafíos existenciales (como el cambio climático), entender nuevos descubrimientos en genética, el desarrollo de curas de graves enfermedades y mejorar la eficiencia y optimización de recursos en los diferentes sectores industriales. Sin embargo, los riesgos son igualmente potenciales, incluida la aplicación de la IA para ampliar la desinformación, desarrollar ciberataques y ciberdelitos, afianzar aún más los prejuicios raciales y todo tipo de injusticias, sin dejar de lado el catastrofismo apocalíptico, en donde la IA superará la inteligencia humana y se impondrá en la toma de decisiones, instrumentalizando a los seres humanos y sus instituciones.

Todos estos debates, se llevan a cabo en el contexto de una feroz competencia geopolítica, donde la IA es apreciada y deseada por todos, pero concentrada en muy pocas manos, en medio de un avance tecnológico sin precedentes en la historia humana.

En el centro de esos debates hay cuestiones ineludibles: ¿quién se beneficia del poder de la IA? ¿Cómo crea o altera el poder de la IA los derechos, deberes y obligaciones humanas? ¿Quién tiene la autoridad adecuada para ejercer el poder de la IA y bajo qué condiciones? ¿Qué barreras institucionales, políticas y legales se necesitan para garantizar que este poder se ejerza de manera legítima, justa y responsable? ¿El desarrollo de la inteligencia artificial supone ventajas o desventajas para el sistema democrático?

El siguiente artículo se propone a modo de reflexión la vinculación entre la inteligencia artificial y su impacto en la vida de los usuarios y el devenir en los regímenes políticos teniendo presente el escenario de regulación actual en los principales centros de poder mundial.

 

Democracia y autoritarismo en los tiempos de la IA

 

El conflicto entre democracia y autoritarismo es en realidad un conflicto entre dos sistemas de procesamiento de datos diferentes. La IA puede inclinar la ventaja hacia los sistemas autoritarios. El mayor y más aterrador impacto de la revolución de la IA podría ser la eficiencia relativa de las democracias o de los regímenes autoritarios. Históricamente las autocracias han enfrentado desventajas devastadoras en lo que respecta a la innovación y al crecimiento económico y los posteriores efectos que esto significó para millones de personas que vivían bajo estos regímenes. A finales del siglo XX, las democracias generalmente superan a las dictaduras porque resultaban mucho más eficientes en el procesamiento de información. Tendemos a pensar en el conflicto entre democracia y autoritarismo como una pugna entre dos sistemas éticos diferentes, pero como también en un conflicto entre dos sistemas de procesamiento de datos con distinto nivel de eficiencia. La democracia distribuye el poder para procesar información y tomar decisiones entre muchas personas e instituciones, mientras que la dictadura o los distintos regímenes autoritarios concentran la información y el poder en un solo lugar. La tecnología del siglo XX era ineficaz para concentrar información y poder en un solo lugar. Nadie tenía la capacidad de procesar toda la información disponible con la suficiente rapidez y tomar las decisiones correctas. Esta fue una de las razones por las que la Unión Soviética tomó decisiones mucho peores que los Estados Unidos y por la que la economía soviética quedó muy relegada respecto a la economía estadounidense.

Sin embargo, la inteligencia artificial pronto podría hacer girar el péndulo en la dirección opuesta; un ejemplo de ello es el sistema de crédito social aplicado en la República Popular China. La IA permite procesar enormes cantidades de información de forma centralizada. De hecho, podría hacer que los sistemas centralizados sean mucho más eficientes que los sistemas difusos, porque el aprendizaje automático funciona mejor cuando la máquina tiene más información para analizar. Un algoritmo que ignore las limitaciones sobre la privacidad y concentre toda la información relacionada con mil millones de personas en una base de datos será mucho mejor que otro que respete la privacidad y se limite a un millón de personas; un gobierno autoritario que ordene a todos sus ciudadanos secuenciar su ADN y compartir sus datos médicos y biométricos con alguna autoridad central, obtendría una inmensa ventaja en genética e investigación médica sobre sociedades en las que los datos médicos son estrictamente privados. La principal desventaja de los regímenes autoritarios del siglo XX fue la incapacidad técnica de concentrar toda la información y el poder en un solo lugar. En el actual estado del procesamiento de información puede convertirse en su ventaja decisiva en el siglo XXI.

Sin duda alguna las innovaciones tecnológicas pueden impulsar la concentración más que la distribución de información y poder. La tecnología blockchain y el uso de criptomonedas se promocionan globalmente como un posible contrapeso al poder centralizado; pero la tecnología blockchain aún se encuentra en una etapa embrionaria y todavía desconocemos sí realmente podrá contrarrestar las tendencias centralizadoras de la IA. Es necesario tener muy presente que Internet también fue promocionada en sus inicios como una panacea libertaria que liberaría a las personas de todos los grilletes de los sistemas centralizados, pero ahora Internet está preparada para hacer que la autoridad centralizada sea más poderosa que nunca.

 

La cesión de autoridad a las máquinas

 

Incluso si algunas sociedades siguen siendo ostensiblemente democráticas, la creciente potencia de los algoritmos de IA seguirá trasladando cada vez más autoridad de los seres humanos individuales a las máquinas conectadas a los distintos servicios de red. Es posible que voluntariamente renunciemos a más y más autoridad sobre nuestras vidas porque aprenderemos de la experiencia a confiar más en la potencia de los oscuros algoritmos que en nuestras propias emociones e intelecto, con lo cual perderemos involuntaria y voluntariamente nuestra capacidad de tomar muchas decisiones por nosotros mismos, asumiendo que la máquina y sus magníficos dispositivos han llegado para quedarse. Basta pensar en que apenas en dos décadas miles de millones de personas ahora cuentan con un dispositivo móvil y a través de él han llegado a confiar al algoritmo de búsqueda de Google, una de las tareas más importantes de todas: encontrar información relevante y confiable para desarrollar su vida, perpetuando el ciclo de búsqueda de conocimiento e información, alimentando con ello el algoritmo. A medida que confiamos más en Google para obtener respuestas, nuestra capacidad para localizar información de forma independiente disminuye, a tal punto que seremos administrados algorítmicamente como por arte de magia, ignorando la diferencia entre nuestra voluntad y los deseos del potente algoritmo. Hoy en día “la verdad” se define por los primeros resultados de una búsqueda en Google; este proceso también afecta nuestras capacidades físicas, como la navegación en el espacio. La gente le pide a Google no sólo que encuentre información sino también que los guíe a través de sistemas de geolocalización. Las consecuencias de la IA en la conducción de automóviles autónomos y hasta en la delicada gestión médica, tendrá fuertes implicaciones; en el futuro, las innovaciones dejarían sin trabajo a muchos conductores y a médicos.

Sin embargo, su mayor importancia radica en la continua transferencia de autoridad y responsabilidad a las máquinas entrenadas con algoritmos de IA. Los humanos occidentales estamos acostumbrados a pensar en la vida como un drama de toma de decisiones. La democracia liberal y el capitalismo de libre mercado ven al individuo como un agente autónomo y racional que constantemente toma decisiones sobre el mundo, maximizando beneficios y reduciendo los costos. Las obras de arte, ya sean obras de Dostoievski, novelas de Arthur Conan Doyle o comedias exhibidas en Netflix, generalmente giran en torno al héroe que toma una decisión crucial. De manera similar, las teologías cristiana y musulmana se centran en idéntico drama de la toma de decisiones, argumentando que la salvación eterna y el cuidado del alma depende de tomar la decisión correcta.

¿Qué pasará con esta visión de la vida a medida que dependamos de la IA para tomar cada vez más decisiones? Incluso ahora confiamos en Netflix en su buen gusto para recomendar películas y en Spotify para elegir la música que nos agrada. Pero, ¿por qué la utilidad de la IA debería terminar ahí?

Cada año millones de estudiantes universitarios necesitan decidir qué estudiar. Esta es una decisión realmente difícil, tomada bajo la presión del cruel mercado laboral y los escasos recursos económicos de los padres. Esta decisión también está motivada por los miedos y fantasías individuales de los futuros estudiantes, moldeados a su vez por películas occidentales, novelas y campañas publicitarias. Para complicar las cosas, un considerable grupo de estudiantes no sabe realmente lo que se necesita para tener éxito en una determinada profesión y en la mayoría de los casos tienen una idea muy poco realista de sus fortalezas y debilidades.

No es tan difícil prever cómo la IA algún día podría tomar mejores decisiones que nosotros sobre la vocación profesional y tal vez incluso sobre relaciones emocionales y laborales. Pero una vez que decidamos voluntaria o involuntariamente contar con la potencialidad de la IA para decidir qué estudiar, dónde trabajar y con quién salir o incluso casarnos, la vida humana dejará de ser un drama de toma de decisiones, como lo plantea la teoría de la elección racional, con lo cual nuestra cosmovisión de la vida cambiará inexorablemente. Las elecciones democráticas y los mercados libres podrían dejar de tener sentido tal como los hemos concebido y venimos estudiando. Lo mismo podría suceder con la mayoría de las religiones y obras de arte. ¡Imagínese a Chevalier Auguste Dupin sacando su teléfono inteligente y preguntándole a Siri si debería seguir esa pista o no confiar en determinado personaje! O imagine la compleja obra de William Faulkner con todas las decisiones cruciales tomadas por un algoritmo de Google. ¿Qué clase de vidas serían esas? ¿Tenemos modelos para dar sentido a esas vidas?

¿Pueden los parlamentos y los partidos políticos superar estos desafíos y prevenir los escenarios más oscuros? Por el momento, esto no parece probable. La disrupción tecnológica ni siquiera es un tema destacado en la agenda política de los principales poderes geopolíticos. En un mundo cada vez más conectado, las herramientas basadas en IA permiten que un menor número de personas decidan a escalas cada vez mayores sobre la vida de muchos con resultados potencialmente catastróficos. Los gobiernos, por ejemplo, utilizan la IA para vigilar a los disidentes, rastrear a los inmigrantes indocumentados, influir en las elecciones y asignar recursos escasos. Las corporaciones también dependen de la IA para determinar los bienes, servicios y contenidos disponibles para los consumidores. Estos cambios de poder ya están en marcha y están a punto de intensificarse con una potencialidad sin parangón alguno en la próxima década.

 

¿Entonces, qué debemos hacer? La tragedia de la gobernanza de la IA

 

Para empezar, es necesario dar una prioridad mucho mayor a la comprensión de cómo funciona la mente humana, en particular cómo se desarrolla nuestra propia sabiduría y compasión. Si invertimos demasiado en IA y muy poco en cultivar la mente humana, la muy omnisciente y sofisticada inteligencia artificial de las computadoras podría servir sólo para potenciar la estupidez natural de los humanos y alimentar nuestros peores (pero también, quizás, más poderosos) impulsos, entre ellos la codicia, el odio y el rencor. Para evitar ese resultado, por cada dólar y cada minuto que invertimos en mejorar la IA, sería prudente invertir un dólar y un minuto en explorar y desarrollar la conciencia humana.

De manera más práctica e inmediata, si queremos evitar la concentración de toda la riqueza y el poder en manos de una pequeña élite, debemos regular la propiedad de los datos. En la antigüedad, la tierra era el activo más importante, por lo que la política era una lucha a muerte por el control de la tierra. En la era moderna, las máquinas y las fábricas se volvieron más importantes que la tierra, por lo que las luchas políticas se centraron en controlar estos medios vitales de producción. En el siglo XXI, los datos eclipsarán tanto a la tierra como a la maquinaria como activo más importante, por lo que la política será una lucha para controlar el flujo de la información y datos.

Desafortunadamente, no tenemos mucha experiencia en regular la propiedad de datos, lo cual es inherentemente una tarea mucho más difícil que regular tierras o máquinas. Los datos están en todas partes y en ninguna al mismo tiempo, pueden moverse a la velocidad de la luz y se pueden crear tantas copias de ellos como se quiera. ¿Los datos recopilados sobre mi ADN, mi cerebro y mi vida me pertenecen o son propiedad del gobierno, de una corporación, de un gigante tecnológico, de Jeff Bezos, Mark Zuckerberg, Elon Musk o Jack Ma?

La carrera por acumular y extraer datos está muy avanzada y la encabezan gigantes tecnológicos como Google, Facebook y Amazon; en China, lo hacen Badiou y Tencent. Hasta ahora, muchas de estas empresas actúan como “comerciantes de atención”: captan nuestra atención proporcionando información, servicios de infraestructura y entretenimiento ¨gratuitos¨, y luego venden nuestra atención al mejor postor, los anunciantes. Sin embargo, su verdadero negocio no es simplemente vender anuncios. Más bien, al captar nuestra atención, acumulan inmensas cantidades de datos sobre nosotros que valen más que cualquier ingreso publicitario, para comprender y predecir nuestro comportamiento, conociendo nuestras virtudes, errores y más profundos miedos y secretos. No somos sus clientes, somos su producto, como lo ha dejado muy en claro la periodista española Marta Peirano en su ensayo El enemigo conoce el sistema, o las 21 lecciones para el siglo XXI, del historiador israelí Yuval Noah Harari, tan en boga por estos días.

A la gente común nos resultará muy difícil resistirnos a este proceso. En la actualidad, muchos de nosotros estamos felices de regalar nuestro activo más valioso (nuestros datos personales) a cambio de servicios de correo electrónico gratuitos y vídeos interesantes. Pero si más adelante, la gente corriente decide intentar bloquear el flujo de datos, es probable que se enfrenten al desafío de desatar un nudo gordiano, porque posiblemente han llegado a depender de la red para que esta les ayude a tomar decisiones sobre su salud y bienestar, su supervivencia física, desarrollo y estabilidad laboral.

La nacionalización de datos por parte de los gobiernos podría ofrecer una solución; ciertamente frenaría el poder de las grandes corporaciones. Pero la historia muestra que no necesariamente estamos mejor en manos de gobiernos. Así que será mejor que llamemos a nuestros científicos, filósofos, abogados, sociológicos, médicos y a la sociedad civil en general para que presten atención a esta gran incógnita de nuestro tiempo: ¿cómo se regula la propiedad de los datos?

Actualmente, los humanos corren el riesgo de parecerse a los animales domesticados. Hemos criado y ultra explotado vacas dóciles que producen enormes cantidades de leche y carne pero que, por lo demás, son muy inferiores existencialmente a sus ancestros salvajes. Somos menos ágiles, menos curiosos y menos ingeniosos, como argumenta Karl Marx en su Manuscritos económicos filosóficos de 1844, configurando lo que llama la alienación del trabajador de su gattungswesen o ser genérico. Reflexionaba Marx que el ser genérico es lo que define a la especie humana; es la actividad libre y consciente, y ésta es una distinción que pone en el hombre mismo la responsabilidad de sus propias posibilidades. Es entonces en la elaboración del mundo objetivo donde el hombre se afirma realmente como ser genérico.

Ahora estamos creando seres humanos dóciles y embrutecidos que producen enormes cantidades de datos y funcionan como chips eficientes en un enorme e ininteligible mecanismo sistematizado de procesamiento de datos, que difícilmente poseen la capacidad de maximizar su potencial humano y autodeterminar el desarrollo de su vida, como imagino el sabio de Königsberg Immanuel Kant en su célebre ensayo de 1784 Respuesta a la pregunta ¿qué es la ilustración?

Si no tenemos cuidado ni prestamos atención, terminaremos con humanos degradados (subhumanos informatizados y algorítmicamente asistidos (como propone el filósofo Frances Eric Sadin en su célebre ensayo La humanidad aumentada, la administración digital del mundo), que harán un nefasto y muy banal uso de las supercomputadoras mejoradas para causar estragos en ellos mismos y en el mundo que cohabitan.

Si estas perspectivas resultan alarmantes, si no le gusta la idea de vivir en una dictadura digital o en alguna forma de sociedad similarmente degradada y centralizada, entonces la contribución más significativa que puede hacer es encontrar formas de evitar que demasiados datos se concentren en muy pocas y poderosas manos. También es necesario encontrar y desarrollar formas de mantener el procesamiento de datos distribuidos de manera más eficiente que el procesamiento de datos centralizado en manos de gigantes tecnológicos que responden a poderes geopolíticos en disputa. No serán tareas fáciles. Pero desarrollar una lógica de distribución descentralizada de datos puede ser el mejor camino para salvaguardar la democracia.

 

La tragedia de la gobernanza de la IA

 

La tragedia de la gobernanza de la IA se fundamenta en que aquellos Estados con mayor influencia para regular la IA tienen el menor interés en hacerlo, mientras que aquellos Estados con mayor interés tienen la menor influencia y quedan relegados al consumo y a los efectos sociales que devienen de esta poderosísima tecnología.

Los estándares de los distintos sectores industriales serán importantes para gestionar el riesgo; sin embargo, las empresas tienen todos los incentivos para desarrollar e implementar modelos cada vez más potentes con pocas barreras de seguridad y marcos regulatorios desarrollador por los Estados. En la medida en que las empresas más grandes exijan medidas a los reguladores, lo hacen, al menos en parte, con la esperanza de que una regulación amigable consolide su posición y minimice los costos para su competencia en el mercado.

Mientras tanto, los Estados son más cautelosos a la hora de regular excesivamente la IA que regularla insuficientemente. Con la notable excepción del nuevo régimen legislativo de la Unión Europea y la intervención episódica del gobierno de la República Popular China, la mayoría de los Estados se han limitado a dar empujones torpes, expedir normas suaves o a la directa inacción.

Este es un enfoque racional para jurisdicciones más pequeñas, correspondientes a países que necesariamente adoptan normas y consumen tecnología cuyos poderosos efectos involucran a millones de personas, sin posibilidad de legislar soberanamente el avance de la innovación de la IA.

Hace medio siglo el académico británico David Collingridge observó y desarrollo en su libro llamado The Social Control of Technology que cualquier esfuerzo por controlar la nueva tecnología se enfrenta a un doble vínculo: en las primeras etapas de la innovación sería fácil ejercer control porque se desconocen los daños potenciales como para justificar una desaceleración del desarrollo; sin embargo, cuando esas consecuencias son evidentes, el control se ha vuelto lento y costoso.

La mayoría de los Estados-Nación se fundamentan en el primer aspecto del dilema de Collingridge: predecir y evitar daños colaterales. Además de talleres y conferencias, se han desarrollado institutos de investigación en distintas universidades para evaluar los riesgos de la IA y algunos advierten apocalípticamente sobre la amenaza de la IA en general. Si esta tecnología realmente representa una amenaza existencial para la humanidad, esto podría llevar a desarrollar e imponer restricciones análogas a las de la investigación de armas nucleares, biológicas y químicas, o una prohibición como la de la clonación humana.

Es revelador, sin embargo, que ninguna jurisdicción significativa en términos globales haya impuesto una prohibición, ya sea porque la amenaza no parece inmediata (parece simplemente especulativa o producto de una lógica ludita o tecnofobia) o por temor a que simplemente impulse la investigación en otra parte.

Si la regulación apunta a amenazas más inmediatas, por supuesto que el ritmo de la innovación significa que los reguladores deben jugar un juego interminable para ponerse al día. La tecnología puede cambiar exponencialmente, mientras que los sistemas legales, sociales y económicos cambian gradualmente; por ejemplo, los desarrollos jurídicos avanzan a pasos de tortuga frente a las realidades sociales, en especial a los avances de la innovación tecnológica.

El propio Collingridge argumentó que, en lugar de tratar de predecir los riesgos, es más sensato sentar las bases para abordar el segundo aspecto del dilema: garantizar que las decisiones sobre tecnología sean reversibles o flexibles. Esto también es un desafío gigante, sobre todo porque se corre el riesgo del problema de la “puerta del granero” al intentar cerrarla después de que el caballo se haya escapado.

Otra cuestión es la forma que debería adoptar la regulación y a qué nivel debería abordar el problema. La mayoría de las leyes pueden regir la mayoría de los casos de uso de IA la mayor parte del tiempo. Pero, para llenar los vacíos, hay al menos cuatro respuestas posibles según David Collingridge. El primer enfoque es reutilizar las leyes o marcos legales de protección de datos existentes para abordar el procesamiento automatizado y ciertos aspectos de la IA. Este fue el enfoque inicial en la Unión Europea desde su Directiva de Protección de Datos de 1995 hasta el Reglamento General de Protección de Datos de 2016, que refleja los primeros casos de uso y preocupaciones sobre la IA, imponiendo límites porque podría hacerse mal uso de los datos personales o usarse para elaborar perfiles inapropiados basándose ​​en características personales.

Marta Peirano es muy crítica frente a esta extrapolación legal, argumentando que no existe forma de legislar a los gigantes tecnológicos, cuando los crímenes perpetrados en y por las plataformas digitales, atacan a poblaciones civiles de países asiáticos o africanos, como aconteció en 2017 en Myanmar, donde los sistemas de Facebook promovieron la limpieza étnica contra la población Rohinyá.

El segundo consiste en elaborar un enfoque sectorial, identificando daños potenciales y aplicando soluciones específicas y/o particulares para abordar esos daños. Este parece ser el enfoque con más probabilidades de ganar terreno, con ejemplos de nuevas leyes que se están adoptando para regular los dispositivos médicos, vehículos autónomos, y las tecnologías financieras.

En tercer lugar, como hemos visto, en la legislación más reciente adoptada y propuesta en la Unión Europea, es posible adoptar un enfoque general para regular la IA, con todas las complicaciones que eso genera. La UE describe su proyecto de ley sobre IA como “la primera ley integral sobre IA del mundo”. El marco regulatorio aún en proceso de confección define y conceptualiza a un sistema de IA como “un sistema basado en una máquina que está diseñado para operar con distintos niveles de autonomía y que puede, para objetivos explícitos o implícitos, generar resultados como predicciones, recomendaciones o decisiones, que influyen en los sistemas físicos o virtuales. ambientes”.

Por último, la regulación podría fundamentarse no en el caso de uso específico ni en el software subyacente, sino en el hardware mismo. Esta idea de “regular la computación” es atractiva, en parte porque es algo físico que se puede inspeccionar de manera análoga a como se hace en la investigación de sustancias peligrosas (biológicas, químicas, plantas nucleares, etc.), lo cual requiere acreditación, licencia de los investigadores, procedimientos de seguridad y complejos protocolos de calidad industrial. Sin embargo, son pocos los Estados que cuentan con la potencialidad de llegar a este nivel de aplicación, ya sea por falta de capital humano, voluntad política o coyunturas nacionales.

En la actualidad, sin embargo, la forma más destacada en la que se ha aplicado esa regulación o administración a la gobernanza de la IA son los esfuerzos de Estados Unidos por limitar el acceso de China a chips de computadora de alto rendimiento mediante controles de exportación.

 

A modo de conclusión

 

La gobernanza de la IA plantea desafíos profundos y complejos que abarcan desde cuestiones éticas hasta consideraciones geopolíticas. A lo largo de este ensayo, hemos explorado cómo la IA está transformando no solo nuestras sociedades y economías, sino también nuestras concepciones de poder, democracia y libertad individual.

En primer lugar, hemos examinado cómo la IA está alterando el equilibrio de poder entre democracias y regímenes autoritarios. Históricamente, las democracias han sobresalido en el procesamiento de información y la toma de decisiones distribuidas, mientras que los regímenes autoritarios han enfrentado desafíos debido a la falta de eficiencia en la centralización del poder. Sin embargo, la IA está cambiando esta dinámica al permitir la centralización de información y el procesamiento de datos a una escala sin precedentes, lo que podría otorgar a los regímenes autoritarios una ventaja decisiva en el siglo XXI.

Además, hemos considerado cómo la creciente autonomía de los algoritmos de IA está transfiriendo gradualmente la autoridad de los humanos a las máquinas. A medida que confiamos cada vez más en algoritmos para tomar decisiones en áreas como la educación, el empleo y la salud, nos enfrentamos al desafío de cómo preservar nuestra autonomía y capacidad de autodeterminación en un mundo cada vez más dominado por la IA.

Por último, hemos reflexionado sobre las implicaciones de la concentración de datos y poder en manos de unas pocas corporaciones y gobiernos. La propiedad y el control de los datos se están convirtiendo en el activo más importante en el siglo XXI, lo que plantea preguntas urgentes sobre cómo regular el flujo de información y garantizar que beneficie a la sociedad en su conjunto, en lugar de consolidar el poder en manos de unos pocos.

En última instancia, la gobernanza de la IA es una tragedia en el sentido de que los estados con el poder y la influencia para regular la IA tienen poco interés en hacerlo, mientras que aquellos con un interés mayor tienen poca influencia y quedan relegados a los efectos sociales que derivan de esta poderosa tecnología. En este contexto, es fundamental encontrar formas de regular la IA de manera efectiva y equitativa, protegiendo al mismo tiempo la libertad individual, la democracia y la igualdad. Esto requerirá un enfoque colaborativo y multidisciplinario que involucre a gobiernos, empresas, sociedad civil y ciudadanos en general. Si no abordamos estos desafíos de manera proactiva y coordinada, corremos el riesgo de perder el control sobre nuestra propia creación y enfrentarnos a un futuro dominado por algoritmos y máquinas en lugar de por humanos y sus valores fundamentales.

 

 

* Licenciado en Ciencia Política (UBA). Su campo de investigación es la tecnología y el orden internacional.

Entradas Recientes

Ver todo
bottom of page