El experto argentino Guillermo Simari, anfitrión de un encuentro internacional que reúne a más de un millón de especialistas en inteligencia artificial, habla durante una entrevista
Efe
«No estamos tan lejos de las armas autómatas, y eso es peligrosísimo», advirtió este jueves, en una entrevista con Efe, el experto argentino Guillermo Simari, anfitrión de un encuentro internacional que reúne a más de un millar de especialistas en inteligencia artificial en Buenos Aires.
Simari consideró que, por definición, el software que se utiliza para el desarrollo de modelos de inteligencia artificial «no es un material que uno pueda controlar» y no está exento de riesgos.
A su juicio, con el avance del software, no es impensable que en el futuro se llegue a perder el «control humano» en las acciones de algunos sistemas que ya están funcionando en una modalidad más simple, a través de teléfonos o automóviles.
Simari encabeza la Conferencia Internacional de Inteligencia Artificial, que reúne hasta mañana, viernes, a 1.200 especialistas en inteligencia artificial en la capital argentina.
Durante la cita, considerada la más importante del sector, ya se ha alertado sobre los riesgos del uso del software con fines bélicos.
En una carta, difundida durante la convención, algunos de los más reconocidos científicos del mundo, como Stephen Hawking, o filósofos como Noam Chomsky, entre otros, advirtieron de los peligros de usar la inteligencia artificial para el desarrollo de armas.
«Cuando uno le quita el componente de peligro a la batalla, cuál es el problema de mandar miles de máquinas a combatir con otras miles de máquinas, se transforma casi en un juego de computadoras», sugiere el experto argentino.
Simari admitió también la complejidad de «prohibir su desarrollo» por tratarse simplemente de software, un área de conocimiento a la que tienen acceso multitud de agentes y que engloba «un problema ético muy complicado» que, previsiblemente, «va a durar años».
Aunque «no hemos avanzado hasta el punto de tener una inteligencia artificial general del nivel de un ser humano», se ha caminado con paso firme hacia «sistemas inteligentes en dominios reducidos», según el experto.
Además, la cuestión de la inteligencia artificial abre un nuevo frente, el de las tareas rutinarias y sin complejidad que hoy «ocupa al 20 % de la fuerza laboral».
Estos trabajadores podrían ser reemplazados por sistemas automáticos, lo que obliga a «pensar en el futuro» y valorar cómo ocupar a la humanidad para que pueda «ganar su sustento» sin necesidad de realizar ciertos trabajos, apuntó.
No obstante, Simari lanzó un mensaje tranquilizador a la sociedad, y aseguró que «todavía falta mucho» para comprender totalmente cómo funciona el cerebro «y replicarlo».
Además, en su 24ª edición, el congreso aborda la vinculación entre la inteligencia artificial y el arte con la presentación de unos 500 trabajos científicos y la muestra «Inteligencia artificial. Arte en nuevos medios», que expone diversos robots en el centro cultural Borges de Buenos Aires.
Simari consideró que, por definición, el software que se utiliza para el desarrollo de modelos de inteligencia artificial «no es un material que uno pueda controlar» y no está exento de riesgos.
A su juicio, con el avance del software, no es impensable que en el futuro se llegue a perder el «control humano» en las acciones de algunos sistemas que ya están funcionando en una modalidad más simple, a través de teléfonos o automóviles.
Simari encabeza la Conferencia Internacional de Inteligencia Artificial, que reúne hasta mañana, viernes, a 1.200 especialistas en inteligencia artificial en la capital argentina.
Durante la cita, considerada la más importante del sector, ya se ha alertado sobre los riesgos del uso del software con fines bélicos.
En una carta, difundida durante la convención, algunos de los más reconocidos científicos del mundo, como Stephen Hawking, o filósofos como Noam Chomsky, entre otros, advirtieron de los peligros de usar la inteligencia artificial para el desarrollo de armas.
«Cuando uno le quita el componente de peligro a la batalla, cuál es el problema de mandar miles de máquinas a combatir con otras miles de máquinas, se transforma casi en un juego de computadoras», sugiere el experto argentino.
Simari admitió también la complejidad de «prohibir su desarrollo» por tratarse simplemente de software, un área de conocimiento a la que tienen acceso multitud de agentes y que engloba «un problema ético muy complicado» que, previsiblemente, «va a durar años».
Aunque «no hemos avanzado hasta el punto de tener una inteligencia artificial general del nivel de un ser humano», se ha caminado con paso firme hacia «sistemas inteligentes en dominios reducidos», según el experto.
Además, la cuestión de la inteligencia artificial abre un nuevo frente, el de las tareas rutinarias y sin complejidad que hoy «ocupa al 20 % de la fuerza laboral».
Estos trabajadores podrían ser reemplazados por sistemas automáticos, lo que obliga a «pensar en el futuro» y valorar cómo ocupar a la humanidad para que pueda «ganar su sustento» sin necesidad de realizar ciertos trabajos, apuntó.
No obstante, Simari lanzó un mensaje tranquilizador a la sociedad, y aseguró que «todavía falta mucho» para comprender totalmente cómo funciona el cerebro «y replicarlo».
Además, en su 24ª edición, el congreso aborda la vinculación entre la inteligencia artificial y el arte con la presentación de unos 500 trabajos científicos y la muestra «Inteligencia artificial. Arte en nuevos medios», que expone diversos robots en el centro cultural Borges de Buenos Aires.
No hay comentarios:
Publicar un comentario