Skip to main content

¿Es la Inteligencia Artificial una amenaza para la humanidad?

Los riesgos de la AI son tantos como los beneficios, por lo que deben existir más esfuerzos para que su impacto sea más benéfico que lo contrario.

Hace unas semanas, Vanity Fair publicó un artículo sobre el costoso intento de Elon Musk de rechazar la inteligencia artificial (AI).

"Elon Musk es famoso por sus juegos futuristas, pero la prisa de Silicon Valley por adoptar la inteligencia artificial lo asusta", escribe Maureen Dowd, autor del artículo, quien también cree que todos deberíamos tener miedo.

El empresario e inventor Elon Musk es uno de varios tecnólogos y científicos de renombre mundial - entre ellos el científico Stephen Hawking, el tecnólogo Ray Kurzweil y el cofundador de Microsoft, Bill Gates- que han expresado serias preocupaciones con relación a que la IA pueda representar una amenaza existencial para la humanidad.

Pero la gran mayoría de los expertos en IA no comparten estos temores. Hace unos meses, el estudio de de la Universidad de Stanford, “100 Años de Estudio en Inteligencia Artificial”, publicó un informe de un panel de expertos evaluando el estado actual de la IA. Su principal conclusión fue que:

"Contrariamente a las predicciones más fantásticas para la AI en la prensa popular, el Panel de Estudio no encontró motivo de preocupación de que la AI sea una amenaza inminente para la humanidad. No se han desarrollado máquinas con objetivos e intenciones autosostenibles a largo plazo, ni tampoco es probable que se desarrollen en un futuro próximo. En cambio, es probable que aparezcan aplicaciones cada vez más útiles de la IA, con impactos positivos potencialmente profundos sobre nuestra sociedad y economía entre ahora y 2030. ... Al mismo tiempo, muchos de estos desarrollos estimularán disrupciones en la forma en que el trabajo humano es aumentado o reemplazado por AI, creando nuevos retos para la economía y la sociedad de manera más amplia".

Pero sólo porque los expertos lleguen a la conclusión de que la IA no representa una amenaza inminente para la humanidad, no significa que una tecnología tan poderosa no esté acompañada de graves desafíos que requieran nuestra atención.

A principios de este año, el Foro Económico Mundial realizó una encuesta para evaluar los beneficios positivos y los riesgos negativos de 12 tecnologías emergentes. La IA y la robótica recibieron los puntajes de riesgo más altos, así como algunas de las puntuaciones más altas de los beneficios. El FEM señaló que, a diferencia de la biotecnología, que también obtuvo altas puntuaciones de beneficios y riesgos, la IA sólo se regula ligeramente, a pesar de "los riesgos potenciales asociados con dejar que los poderes de decisión se trasladen de los seres humanos a los programas de AI, así como el debate sobre cómo prepararse para el posible desarrollo de máquinas con mayor inteligencia general que los seres humanos".

Un caso concreto en el punto es la predicción de la polícía, el uso de datos y algoritmos AI para predecir automáticamente dónde es probable que los crímenes tengan lugar y quiénes son los que probablemente los cometan. Así se explicó en un reciente artículo en Nature: 

"Los presupuestos estrictos de la policía aumentan la demanda de tecnologías de aplicación de la ley. Las agencias policiales esperan hacer más con menos, subcontratando sus evaluaciones de datos sobre delitos a empresas analíticas y tecnológicas que producen sistemas de ‘predicción policial’. Estos [sistemas] usan algoritmos para pronosticar el probable lugar en el que ocurrirán los crímenes, y quiénes pueden cometerlos, y para hacer recomendaciones para la asignación de recursos policiales. A pesar de la amplia adopción, la policía predictiva todavía está en ‘pañales‘, abierta a prejuicios y difícil de evaluar". 

El artículo de Nature también señala que en el ámbito policial están "entusiasmados con las posibilidades de experimentación usando la analítica predictiva", citando tecnologías de vigilancia mejoradas que podrían "probar y mejorar las tácticas policiales o reducir los abusos de los oficiales". Grupos de la sociedad condenan tales usos. "Las predicciones basadas en delincuentes exacerban los prejuicios raciales en el sistema de justicia penal y socavan el principio de presunta inocencia", dice el artículo.

El texto de Nature también pide precaución en el uso de la predicción policial. Si se implementa adecuadamente, el uso de datos y el software de IA podrían ayudar a mejorar la policía y la seguridad pública. Sin embargo, "los sofisticados sistemas predictivos no lograrán la reforma policial sin cambios regulatorios e institucionales. Se necesitan controles y equilibrios para mitigar el poder discrecional de la policía. Debemos tener cuidado de confiar en productos comerciales que pueden tener efectos no anticipados y adversos sobre los derechos civiles y la justicia social".

Recientemente se han organizado una serie de iniciativas para abordar estos y otros desafíos a largo plazo de la IA, entre ellos el mencionado estudio de cien años de IA, el Instituto del Futuro de la Vida y la Asociación sobre la IA. Es de esperar que, como ha sido el caso con tecnologías previamente poderosas, estos esfuerzos ayudarán a asegurar que nuestros sistemas de IA sean cada vez más capaces y robustos, y tengan un impacto beneficioso importante en la economía, la sociedad y nuestras vidas.