Del cerebro positrónico al chip Thor: Asimov se hace realidad


Recuerdo perfectamente cuando leí por primera vez Yo, robot de Isaac Asimov. Era apenas un niño, pero aquello me impactó tremendamente. No era un libro de aventuras espaciales ni una simple sucesión de relatos de ciencia ficción: era un espejo en el que se reflejaba nuestra relación con la tecnología. Asimov no describía robots como latas con tuercas, sino máquinas inteligentes que convivían con los humanos y que, en ocasiones, nos desbordaban con sus dilemas éticos y lógicos.
La obra, publicada en 1950, reúne una serie de relatos que giran en torno a las Tres Leyes de la Robótica, formuladas por Asimov para que esos seres artificiales no se volvieran en contra de sus creadores. La primera prohibía dañar a un ser humano o permitir, por inacción, que sufriera daño. La segunda obligaba a obedecer las órdenes de los humanos, salvo que entrasen en conflicto con la primera. La tercera imponía la autopreservación, siempre subordinada a las dos anteriores. Aquellas leyes, aunque literarias, siguen siendo hoy un referente cuando hablamos de ética en la inteligencia artificial.

El corazón de esos robots era el cerebro positrónico, un término inventado por Asimov que evocaba un entramado de rutas subatómicas capaz de emular el funcionamiento de un cerebro humano. Ese “positrónico” no respondía a una base científica real, sino que era una metáfora para un procesador lo bastante complejo y flexible como para aprender, equivocarse y adaptarse. La clave era esa: no eran máquinas rígidas, sino mentes artificiales.

Setenta años después, la realidad empieza a rozar la ficción. Nvidia acaba de presentar el Jetson Thor T5000, un chip diseñado para convertirse en el cerebro de la próxima generación de robots humanoides. Con más de 2.000 TFLOPS de potencia y una arquitectura optimizada para modelos de inteligencia artificial generativa, este procesador es capaz de integrar en tiempo real la información de cámaras, micrófonos y sensores, y tomar decisiones en milisegundos. Dicho de otro modo: se parece mucho a lo que Asimov imaginó como cerebro positrónico, aunque en lugar de positrones use silicio y transistores.

La compañía lo ha acompañado de un modelo fundacional llamado GR00T, que permite a un robot aprender observando a un humano ejecutar una tarea. En los relatos de Asimov, los robots no necesitaban que alguien les programara línea por línea; bastaba con que interactuasen con el mundo para adquirir nuevas habilidades. Esa es exactamente la promesa de Nvidia: androides que aprenden por imitación y generalizan lo aprendido a situaciones nuevas.

Los paralelismos son inevitables: un cerebro centralizado que coordina los sentidos, tiene capacidad de aprendizaje flexible y la posibilidad de insertarse en cuerpos humanoides fabricados por distintas compañías, desde Tesla hasta Boston Dynamics. U.S. Robots & Mechanical Men. Parecía pura ciencia ficción, y sin embargo empieza a hacerse realidad.

La gran diferencia es que Nvidia no graba a fuego las Tres Leyes en sus chips. La seguridad y la ética quedan en manos del software, de los desarrolladores y de la regulación. Asimov entendió que sin un marco moral, la tecnología podía convertirse en un arma de doble filo. Hoy, cuando se habla de “alineación de la inteligencia artificial” —es decir, el esfuerzo por hacer que las máquinas respeten valores humanos— y de “modelos constitucionales” —sistemas que se entrenan con un conjunto de principios éticos escritos como una especie de constitución— en el fondo se trata de la misma preocupación que planteaba Asimov: cómo garantizar que una máquina poderosa no actúe contra nosotros.

Quizás lo más asombroso de todo esto no es que un chip alcance los 2.07 billones de operaciones por segundo (millones de millones), sino comprobar cómo las intuiciones de un escritor de mediados del siglo XX siguen guiando la manera en que pensamos nuestro futuro tecnológico. La ciencia ficción de ayer es el manual de advertencias de hoy.

  • No pretendo ni mucho menos ser el aguafiestas de turno… pero estimo que el entusiasmo ha ganado por mucho a la realidad.
    Empezando por el final, éstas son las especificaciones del chisme en sí según la página del fabricante: https://nvdam.widen.net/s/8c6zv8mbgl/robotics-datasheet-jetson-thor-module-t5000-t4000-4088800-r4
    Traduciendo, sí ha aumentado la capacidad de procesamiento con respecto al módulo anterior, pero no hasta el punto de duplicarlo; cosa que sí ha pasado con la memoria.
    Más aún, el resto de características son exactamente iguales, o no aportan una mejora destacable.

    Qué duda cabe que un «clúster» con un millar de éstos módulos supone una mejora notable en capacidad de respuesta, o posibilidad para calcular más variables a la misma velocidad de antes. Pero personalmente, no lo veo TAN superior al T4000, ni mucho menos se acerca a la potencia de procesamiento necesaria para escribir siquiera un relato corto de ciencia-ficción.

    Con respecto a Asimov… estaremos de acuerdo en que «Yo, robot» es una novela de ciencia-ficción, no un ensayo o una revisión por pares; teniendo esto claro, es más fácil entender que lo de las tres leyes de la robótica deben tenerse como un artificio literario y/o un elemento argumental, no como un dogma de fe. De hecho, y lamento herir sensibilidades… no son aplicables fuera del contexto literario de IA que describe el autor; menos aún para el modelo de «aprendizaje automático» que se utiliza actualmente. Para acabar de dar la puntilla, en su novela «Robots e Imperio», Asimov incluye una cuarta ley: la Ley Cero de la Robótica, que permitía ignorar las restantes… pudiendo incluso llegar a ser contraproducente para la Humanidad.

    Para terminar, sea o no factible, preferiría algo llamado «cerebro positrónico», a algo llamado «Groot». Cuestión de preferencias, supongo.

    Y ya me voy, que me pitan demasiado los oídos. :duele:

    Muchísimas gracias por el artículo.

    2
    0
  • Eroton dijo:

    estaremos de acuerdo en que «Yo, robot» es una novela de ciencia-ficción, no un ensayo o una revisión por pares; teniendo esto claro, es más fácil entender que lo de las tres leyes de la robótica deben tenerse como un artificio literario y/o un elemento argumental, no como un dogma de fe. De hecho, y lamento herir sensibilidades… no son aplicables fuera del contexto literario de IA que describe el autor;

    Esto me parece muy bien observado, oye. Yo no tengo conocimientos técnicos de nada, pero después de que las leyes de la robótica me hubieran llegado a parecer una estupenda y muy bien hallada idea, también en algún momento me llegué a preguntar qué capacidades cognitivas autónomas (por decirlo así) tendría que tener un robot para poder aplicarlas. Es decir: ¿Cómo puede llegar a poder identificar en todo momento tanto lo que es un ser humano, como el concepto de «daño» que éste pueda sufrir (en toda la amplitud y variedad del sentido del término), en cualquier situación y contexto en que pudiera encontrarse, y con la participación de cualesquiera otros elementos, del tipo que fueren, que pudieran llegar a ser causa potencial de ese «daño», como para actuar correctamente en consecuencia?… No se yo cómo pueda quedar de lejos eso aún hoy en dia.
    No se si me explico, pero es igual. @Eroton ya lo dice todo muy bien y muy rebonico…
    Saludos.

    0
    0
  • Alexis dijo:

    ¿Cómo puede llegar a poder identificar en todo momento tanto lo que es un ser humano,

    Son capaces de detectarlo de una manera conceptualmente parecida a como lo hacemos nosotros. Nuestros ojos detectan una serie de rasgos (dos ojos, nariz, boca, cabeza, pelo). En base a esas entradas, nuestro cerebro (entendido como una caja negra) arroja una salida (es un humano o no). Las máquinas hacen eso con redes neuronales. Creo que ya he hablado en el blog en alguna ocasión sobre eso, pero si tenéis interés puedo hacer un artículo especifico. El que se pueda hacer daño, no es más que añadir otro input a esa caja negra. Un humano + un objeto que avanza velozmente hacia el —> el humano sufre daño. Yo creo que está mucho mas cerca de lo que creemos. Y te lo digo yo, que hace como 8 años ya empecé a oír que mi trabajo podía automatizarse y que lo iba a hacer una máquina de manera autónoma (no recuerdo que se mencionase IA), y pensé que se habían metido tres cubatas sin hielo. Y mira donde estamos.
    Te dejo este vídeo, que es realmente interesante y habla de las redes neuronales básicas y las redes neuronales convolucionales para que te hagas una idea. Son realmente interesantes.
    Explicación de red neuronal
    https://www.youtube.com/watch?v=iX_on3VxZzk
    Explicación de red neuronal convolucional

    0
    0
  • @ lamentira:
    Gracias, pero… Errr… Sigo desde hace mucho tiempo en precario y ahora el navegador de este antiquísimo cacharro que uso ¡ya ni siquiera puede entrar en Youtube! Así estamos… A ver si puedo ver esos vídeos desde cualquier otro sitio en algún otro momento…
    Respecto a lo que decía yo. Pues, no sé. El concepto de «daño previsible» y posible de evitar para el supuesto robot creo que tendría que ir mucho más allà de sólo prever algo así como «un impacto inminente de objeto contra persona». Me refiero más que nada a que el bicho tendría que «saber mucho» sobre lo que para un humano puede suponer un «daño» (físico, claro, no vamos a ponernos con que si «emocional» o de otro tipo). Y las situaciones en que se pueda dar cualquier cosa ¡pueden ser tan infinitamente diversas! Así como los elementos que intervengan en ellas, y la manera en que se den las interacciones de cualquier tipo.
    Bueno, no sé, digo yo… Igual me embarro demasiado en mi manera de considerarlo y a lo mejor todo esto sí que puede admitir simplificaciones de base, siquiera como punto de partida hacia mayor y posterior complejidad…
    Saludos.

    0
    0


\Incluya

Puedes seguir las respuestas a esta entrada por RSS 2.0 feed.