La Carta de la Bolsa La Carta de la Bolsa

¿Es la Inteligencia Artificial el mayor riesgo actual de la humanidad?

Carlos Montero - Martes, 13 de Enero

En algunas ocasiones les he hablado de la creciente preocupación que se está generando en algunos círculos académicos y empresariales sobre la participación de las “máquinas inteligentes” en los distintos segmentos de la sociedad.

Son muchos los que creen que la inclusión de estos robots en la mayoría de la cadena productiva de un país puede provocar un empobrecimiento general de la población ante una mayor tasa de desempleo estructural. No es algo que veremos este año ni el próximo, pero podría hacerse muy evidente en la próxima década.

El Finantial Times recientemente publicó un interesante artículo haciéndose eco de la carta abierta del Instituto de Vida Futura (FLI) firmada por decenas de científicos, empresarios e inversores que participan en el campo de la inteligencia artificial (IA), advirtiendo de que es necesario un mayor enfoque en la seguridad y los beneficios sociales de esta tecnología.

Esta carta, que sugiere que las prioridades en la investigación sobre la inteligencia artificial deben dirigirse al beneficio social, llega en medio del creciente nerviosismo sobre el impacto en el empleo o incluso de la supervivencia a largo plazo de la humanidad, de máquinas cuya inteligencia y capacidades terminarán por superar a las personas que las crearon.

“Debido al gran potencial de la IA, es importante investigar cómo aprovechar sus beneficios y evitar peligros potenciales. Nuestros sistemas de IA deben hacer lo que queremos que hagan”, señala esta carta.

El FLI fue fundada el año pasado por voluntarios, incluyendo Jaan Tallinn, cofundador de Skype, para estimular la investigación en "visiones optimistas del futuro" y para "mitigar los riesgos existenciales que enfrenta la humanidad", con un enfoque humano de la inteligencia artificial.

Musk, el co-fundador de SpaceX y Tesla, que está sentado en la junta asesora científica del FLI junto al actor Morgan Freeman y el cosmólogo Stephen Hawking, ha dicho que cree que la inteligencia artificial no controlada es "potencialmente más peligrosa que las armas nucleares".

Otros firmantes de la carta del FLI: Lucas Muehlhauser, director ejecutivo del Instituto de Investigación de Máquinas Inteligentes, Frank Wilczek, profesor de física en el Instituto Tecnológico de Massachusetts y premio Nobel, y empresarios detrás de las empresas de inteligencia artificial DeepMind y Vicarious, así como varios empleados de Google, IBM y Microsoft.

La carta de cualquier forma también incide en los grandes beneficios potenciales de esta tecnología:

"Ahora hay un amplio consenso en que la investigación en IA está progresando de manera constante, y que su impacto en la sociedad es probable que aumente", dice la carta. "Los beneficios potenciales son enormes, ya que todo lo que la civilización tiene que ofrecer es un producto de la inteligencia humana; no podemos predecir lo que podríamos lograr cuando esta inteligencia se vea magnificada por las herramientas que la IA puede proporcionar, pero la erradicación de la enfermedad y la pobreza no son insondables".

Es un tema apasionante del que les seguiremos informando, pues el potencial económico y social de esta tecnología es enorme y difícil de predecir.




[Volver]