Pausar la Inteligencia Artificial: ¿es momento de replantear el futuro?

Perspectivas

Pausar la Inteligencia Artificial

¿Es momento de replantear el futuro?

En abril de 2023, diversos científicos y empresarios presentaron una carta en la que subrayaban la necesidad de pausar el desarrollo de la Inteligencia Artificial, a fin de evitar posibles riesgos. ¿Cuáles son dichos riesgos y cuáles los beneficios de seguir con la implementación de esta tecnología?

En entrevista con Germán Ortiz, Socio Líder de Tecnología, Medios y Telecomunicaciones en Deloitte Spanish Latin America.

Ciudad de México, 4 de julio de 2023.

“Llamamos a todos los laboratorios de Inteligencia Artificial (IA) a pausar, inmediatamente, al menos por seis meses, el entrenamiento de sistemas más poderosos que GPT-4”[1]. Con estas palabras, The Future of Life Institute, una organización sin fines de lucro cuya misión es “guiar a la tecnología hacia el beneficio de la vida, alejándola de riesgos extremos y a gran escala”[2], presentó, en abril, una carta en la que señalaba la necesidad de frenar la innovación en sistemas de Inteligencia Artificial, con el propósito de que se generen regulaciones y políticas públicas apropiadas para sus alcances y funciones.

La carta, firmada por personajes como el empresario Elon Musk, el “padre de la IA” Geoffrey Hinton y el historiador y filósofo Yuval Noah Harari, exponía algunas de las preocupaciones en torno a este desarrollo. Entre esas inquietudes destacan: lo poco predecibles que se vuelven los sistemas, una vez que consiguen gran cantidad de información, y la capacidad que tienen para distribuirla de forma errónea o tendenciosa.

Sin embargo, tras la publicación de la carta, también hubo especialistas que criticaron su contenido, como la ingeniera informática Nuria Oliver, quien señaló que la misiva se concentra más en los “riesgos existenciales” (y, por lo tanto, especulativos) de la tecnología, que en sus implicaciones reales a corto plazo[3]. Del mismo modo, los editores de The Washington Post consideraron que esta pausa supondría detener un avance que generará muchos beneficios en el futuro cercano[4].

Lo que es un hecho es que, en medio de estas posiciones, existe una verdad indiscutible: la Inteligencia Artificial está transformando la era actual. Esta tecnología ofrece múltiples ventajas para la vida diaria de millones de ciudadanos alrededor del mundo, pero también representa un cambio importante en el ámbito empresarial y en el económico[5].

En ese sentido, y a fin de dimensionar el efecto que tendría una pausa en el desarrollo de la IA, lo primero que debemos hacer es conocer cuáles son los riesgos y beneficios que se señalan, en torno a la implementación de esta tecnología.

 

[1] The Future of Life Institute, Pause Giant AI Experiments: An Open Letter, 22 de marzo de 2023.

[2] Ibid., Mission, visto: 26 de mayo de 2023.

[3] Nuria Oliver, Una pausa cuestionable en la Inteligencia Artificial, en El País, 02 de mayo de 2023.

[4] The Washington Post, An “AI Pause” could be a disaster for Innovation, 5 de abril de 2023.

[5] De acuerdo con Goldman Sachs, existe la posibilidad de que la IA reemplace alrededor de 300 millones de trabajos en el mundo hacia 2030. Además, se prevé que eleve el PIB mundial en 7% (Goldman Sachs, Generative AI could raise global GDP by 7%, 05 de abril de 2023). 

Llamamos  a todos los laboratorios de Inteligencia Artificial (IA) a pausar, al menos por seis meses, el desarrollo de sistemas más poderosos que GPT-4.

Seguridad y prevención

Las preocupaciones de quienes han pedido pausar la IA se concentran en la necesidad de mantener control sobre el alcance y funcionamiento de esta herramienta tecnológica:  “Los sistemas de IA más poderosos[6] deberían ser desarrollados solamente una vez que tengamos confianza en que sus efectos serán positivos y sus riesgos manejables”[7].

Al tratarse de una tecnología potencialmente transformadora de la vida contemporánea[8], tan capaz, por ejemplo, de desarrollar vacunas como de producir fórmulas para armas químicas[9], existen personas que consideran necesario generar lineamientos de uso y modelos de gobernanza que sean capaces de prevenir su mala aplicación.

Esto nos lleva a preguntarnos: ¿de verdad la Inteligencia Artificial implica un riesgo de la magnitud que los detractores indican?, y, ¿de verdad el alcance previsto para esta tecnología es posible en sus condiciones actuales? Sobre este asunto, el Distributed Artificial Intelligence Research Institute (DAIR) se posicionó de la siguiente manera: “los peligros de la IA son reales, actuales y provienen de los actos de personas y corporaciones que aplican sistemas automatizados. Los esfuerzos de regulación deberían enfocarse en la transparencia, la responsabilidad y la prevención”[10].

De acuerdo con esta institución, que congrega a algunos de los expertos más prominentes en Machine Learning, procesamiento de lenguaje natural y ciencia cognitiva, la postura indicada en la carta no apunta a los verdaderos riesgos de la tecnología, los cuales “no deben vincularse a los artefactos, sino a sus constructores”[11]. Por ello sugieren que, antes de preocuparse por escenarios extremos, las empresas y los científicos del mundo deben garantizar su responsabilidad en cuanto al uso de la Inteligencia Artificial[12].

De acuerdo con los principales laboratorios de IA, congregados en el Center for AI Safety[13], una pausa de seis meses no sería suficiente para mitigar los potenciales peligros que, a futuro, podría representar esta tecnología. En lugar de eso, proponen generar modelos de aplicación y acuerdos de gobernanza sólidos, permanentes, y de carácter global que aseguren la regulación de la Inteligencia Artificial. El objetivo es evitar la posibilidad de que esta tecnología adquiera demasiado poder e, incluso, se convierta en una amenaza para la especie humana[14].

 

[6] Esta parte de la carta hace alusión a la posibilidad de que la Inteligencia Artificial se vuelva autónoma. Es importante recordar que esta tecnología, aún, necesita de gestión humana, y sería necesario seguir alimentando sus modelos y perfeccionando sus algoritmos para llegar a una Inteligencia Artificial General (AGI), que pudiera valerse del todo por sí misma. La llegada de esta Inteligencia Artificial General es todavía un postulado teórico, y no existe certeza incluso de si es posible con las tecnologías actuales (Wired, What’s AGI, and why are AI experts skeptical?, 20 de abril de 2023).

[7] The Future of Life Institute, Pause Giant AI Experiments: An Open Letter, 22 de marzo de 2023.

[8] Parlamento Europeo, Artificial Intelligence: Threats and Opportunities, 20 de junio de 2023.

[9] 20 Minutos, Una Inteligencia Artificial ha sido capaz de encontrar 40.000 nuevas armas químicas potencialmente letales en solo seis horas, 19 de marzo de 2022.

[10] Distributed Artificial Intelligence Research Institute, Statement from the listed authors of Stochastic Parrots on the “AI pause” letter, 31 de marzo de 2022.

[11] Ibidem.

[12] IBM, Don’t pause AI development, prioritize ethics instead. 2 de mayo de 2023.

[13] Center for AI Safety, Statement on AI Risk, visto 27 de junio de 2023.

[14] BBC, Artificial Intelligence could lead to extinction, experts warn, 30 de mayo de 2023. 

 

Los sistemas de IA más poderosos deberían ser desarrollados solamente una vez que tengamos confianza en que sus efectos serán positivos y sus riesgos manejables.

El impacto a la convergencia tecnológica

A medida que nuestro mundo se adentra en la “age of with”, como hemos llamado al momento en que la colaboración entre seres humanos y tecnologías emergentes se vuelve fundamental para el desarrollo de los negocios[15], las industrias no solo han integrado la IA en sus procesos sino que la han convertido en un elemento cada vez más indispensable para sus operaciones.

Sectores como el financiero, el de salud y el manufacturero confían en esta tecnología para llevar a cabo diversas tareas, entre las cuales podemos incluir la automatización del servicio al cliente, el análisis de riesgos e inversiones, el diagnóstico de enfermedades, la maquila y la optimización de procesos[16].

Por lo tanto, una pausa en el desarrollo de nuevos sistemas de Inteligencia Artificial implicaría un rezago en la implementación de la tecnología, y, como consecuencia de ello, un aprovechamiento más lento de sus capacidades, así como la necesidad de invertir en cosas no planificadas[17]. Esa situación, a su vez, podría derivar en pérdida de empleos y en una disminución de la eficiencia operativa, así como en un aumento en la carga laboral de los trabajadores.

De acuerdo con un estudio de Deloitte[18], la aplicación de esta tecnología podría reducir la carga laboral de los trabajadores del sector público en 30%, a lo largo de la presente década; sin embargo, de ocurrir la pausa, esta previsión podría verse afectada.

Debido a la brecha tecnológica que existe entre las regiones subdesarrolladas y las de mayor desarrollo económico, el impacto que la pausa a la IA generaría para Latinoamérica sería de menor escala; sin embargo, no estamos exentos de sus repercusiones[19]. De no continuar un proceso de innovación y desarrollo que permita la adopción de nuevas tecnologías, los países más afectados no solo serían aquellos donde existe una mayor implementación de la IA, sino que también se verían impactadas naciones donde la brecha es más evidente, como Guatemala u Honduras, donde solo 51% y 48% de la población, respectivamente, tiene acceso a internet[20].

Otros efectos generales que podríamos considerar, a nivel mundial, aunque con afectaciones importantes para nuestra región, en caso de producirse una pausa, son la reducción del crecimiento económico y del acceso a la atención médica[21].

En el rubro de la economía, la IA tiene el potencial de aumentar la producción y generar empleo. Del mismo modo, esta tecnología hace posible mejorar la atención médica en los países en desarrollo, pues puede ser utilizada para optimizar el diagnóstico de enfermedades, crear nuevos tratamientos y permitir una atención más personalizada. En suma, la Inteligencia Artificial puede ayudarnos a facilitar la inclusión en diversas áreas de la vida, agilizando la interacción entre el ser humano y la tecnología[22].

Tomando todo esto en cuenta, es posible decir que, antes de considerar una pausa basada en preocupaciones que, por ahora, son más teóricas que realistas, las empresas deben asegurarse de integrar la Inteligencia Artificial a sus procesos, de forma sólida, ética y responsable, reconociendo tanto las ventajas que ofrece como sus limitaciones.

Con ello, se garantizará el crecimiento de los mercados y la creación de nuevas oportunidades, al mismo tiempo que seguimos apuntando hacia un futuro en el que la humanidad y la tecnología seguirán teniendo una importante y muy estrecha relación.  

 

 

[15] Deloitte, The Age of WithTM. Exploring the future of Artificial Intelligence. Visto 26 de junio de 2023.

[16] European Commission, Industrial applications of Artificial intelligence and Big Data. Visto 27 de junio de 2023.

[17] Brookings, The problems with a moratorium on training large AI systems, 11 de abril de 2023.

[18] Deloitte, How much time and money can AI save Government?, visto 27 de junio de 2023. 

[19] Bloomberg, AI threatens to widen Latin America’s digital divide, 7 de junio de 2023.

[20] Banco Mundial, Personas que usan internet (% de la población)- Latin America & Caribbean, visto 27 de junio de 2023.

[21] Brookings, The problems with a moratorium on training large AI systems, 11 de abril de 2023.

[22] Deloitte, Opening doors on opportunity: AI as a vehicle for diversity and inclusion, visto 25 de junio de 2023. 

Los esfuerzos para regular el uso de la IA deberían enfocarse en la ética, la prevencióny la transparencia.

¿Te resultó útil este contenido?