Artículo de la sección Tecnología y Finanzas. Autor: Angel Bermúdez / [email protected]
Muchas cosas en el mundo de hoy han hecho de la Inteligencia Artificial un tema muy hablado. Hay muchas formas en las que se implementa la inteligencia artificial. Por ejemplo cada vez que interactuamos con SIRI en nuestros iPhones haciéndole una pregunta o pidiéndole una dirección, estamos en presencia de la IA creada por los genios de la manzana mordida.
Las películas de ciencia ficción nos harían creer que la inteligencia artificial sería una especie de robots del futuro con aspectos humanos y personalidad que algunas veces podría tomar acciones en nuestra contra.
Sin embargo, la inteligencia artificial de hoy no es tan peligrosa como podríamos creer, a través de las películas de Terminator o Yo Robot con Will Smith. De hecho, tienen sus nombres específicos para diferenciarlos de este tipo de robots malvados. Se les llama inteligencia artificial «Narrow» o inteligencia artificial «Weak». Lo que significa que se les dan instrucciones para que realicen una tarea muy particular optimizada. Por ejemplo, la inteligencia de su teléfono escanea su huella dactilar o utiliza el reconocimiento facial.
A largo plazo, los investigadores y las personas que trabajan en inteligencia artificial desean crear programas de IA mucho más potentes, o lo que es igual, inteligencia artificial «Strong». La inteligencia «Narrow» es realmente fuerte en la tarea que deben realizar, estas inteligencias, en la práctica, superan a las personas en cada tarea en la que puedan pensar, cognitiva o de otro tipo. Tomemos el ejemplo del lector de huellas de su teléfono. Este programa es mucho más eficiente que nosotros en su tarea. Imagínese usted cumpliendo dicha tarea con una lupa revisando la huella de una persona para compararla con otra.
¿Dónde queda la seguridad en la fábrica de Inteligencia Artificial?
La investigación sobre la seguridad de la IA está en marcha y es extremadamente importante en el mundo de hoy. La razón de esto es que la Inteligencia Artificial afectará a casi todas las funciones sociales y guiará la investigación en casi todos los temas. Se integrarán en las decisiones económicas, los procedimientos legales, los sistemas de seguridad y control.
Aunque en una escala más pequeña como una IA «Weak», la falla o los problemas con la inteligencia artificial no serían una molestia. Cuando la decisión es mayor, por ejemplo, cuando la inteligencia puede controlar su vehículo o, por ejemplo, las armas nucleares de un país, el error de esa IA sería una preocupación mucho más grave y mucho más letal para las personas.
Hay grandes beneficios para el uso de la inteligencia artificial, por ejemplo, el intelecto humano y la cognición humana pueden crecer a un ritmo constante. ¿Qué pasaría si creamos una inteligencia mucho más allá de la nuestra que pueda crecer y expandirse a un ritmo mucho mayor y, por lo tanto, desencadenar un aumento en la inteligencia de naturaleza exponencial? Al crecer a este ritmo, podría crear métodos mediante los cuales podamos mejorarnos a nosotros mismos: Crear métodos para que podamos terminar la guerra, reducir el impacto de las enfermedades en nosotros y muchos otros beneficios que nuestro pequeño ritmo de crecimiento no podría esperar terminar o si quiera llegar a comprender.
La razón por la que muchas personas están preocupadas por esto, es por el hecho de tener que garantizar salvaguardas que aseguren que el nivel y las razones de la IA existente y en crecimiento, y que sus resultados finales estén en línea con los nuestros. Si no lo son, al ganar la superinteligencia, podría ser potencialmente problemático erradicarla antes de que nos destruya.
Muchos investigadores han expresado el hecho de que una inteligencia artificial que adquiera la superinteligencia aún sería incapaz de adoptar las emociones de los humanos como el odio o el amor y por lo tanto, no se puede esperar que sean malévolos o amorosos con nosotros ya que no entenderían estos conceptos.