viernes, abril 12

Melanie Mitchell: “La inteligencia artificial despegará cuando se inserte en robots que experimenten el mundo como los niños” | Tecnología

¿Estamos exagerando el potencial de la inteligencia artificial (IA)? ¿Hasta qué punto es inteligente? ¿Llegará algún día a alcanzar al ser humano? Estas son algunas de las preguntas que se hace Melanie Mitchell (Los Ángeles, 55 años) en su libro Inteligencia artificial. Guía para seres pensantes, que Capitán Swing publica en castellano este lunes. Su respuesta es contundente: estamos muy lejos de crear una superinteligencia, por mucho que algunas empresas digan lo contrario. Y uno de los motivos fundamentales es que las máquinas no razonan como nosotros. Pueden hacer casi cualquier tarea mejor que nadie, pero entienden el mundo peor que un bebé de un año.

Mitchell aporta un contexto fundamental para calibrar el fenómeno de la IA, una tecnología instalada en el debate público desde que hace dos años aparecieron herramientas como ChatGPT. Políticos, empresarios y académicos han advertido recientemente sobre los peligros de estos sistemas, que han deslumbrado al mundo con los textos elaborados que son capaces de generar y las imágenes y vídeos hiperrealistas que pueden producir.

La catedrática Davis de Complejidad en el Instituto de Santa Fe y profesora en la Universidad Estatal de Portland describe en su obra cómo funcionan los sistemas más avanzados de IA y los contrapone al razonamiento humano. Conclusión: aspectos clave como la intuición o el conocimiento del entorno son, de momento, inalcanzables para cualquier máquina. Mitchell atiende a EL PAÍS por videollamada desde su casa de Santa Fe, Nuevo México.

PREGUNTA. ¿De qué es capaz la IA hoy en día?

RESPUESTA. Hubo un gran salto en sus capacidades hace un par de años con la llegada de la IA generativa, que incluye aplicaciones como ChatGPT o Dall-E. Pero estos sistemas, aunque pueda parecerlo, no tienen el mismo tipo de comprensión del mundo que nosotros. Por eso, a veces hacen algo extraño o se inventan cosas. Carecen de fiabilidad, tienen una serie de limitaciones que son difíciles de predecir. Así que creo que, si bien estos sistemas pueden ser muy útiles y los uso todo el tiempo, debemos tener cuidado con la confianza que depositamos en ellos. Especialmente si no hay supervisión humana.

P. ¿Por qué?

R. Pueden cometer errores graves. Un ejemplo claro son los coches autónomos. Una de las razones por las que todavía no están entre nosotros es que fallan donde raramente lo haría un humano, como no identificando un peatón o un obstáculo. Otro ejemplo son los sistemas automáticos de reconocimiento facial. Las máquinas son extremadamente buenas para detectar rostros en imágenes, pero se ha comprobado que son peores a la hora de identificar a las personas de piel más oscura o a las mujeres. Con ChatGPT, hemos visto innumerables casos en que se inventa lo que dice.

La profesora Mitchell usa a diario herramientas de IA, pero reconoce sus limitaciones y siempre supervisa sus resultados.Kate Joyce

P. ¿El boom de la IA generativa ayuda o perjudica al desarrollo de la disciplina?

R. En cierto modo, este hype aumenta las expectativas de la gente, y eso luego causa desilusiones. Ha sucedido muchas veces a lo largo de la historia de la IA. En las décadas de 1950 y 1960, se decía que tendríamos máquinas con inteligencia humana en pocos años. Eso no ocurrió. Llegó el llamado invierno de la IA: se agotó la financiación para la investigación y quebraron empresas. Ahora estamos en un período de mucha expectación. La pregunta es, ¿realmente va a ser el momento en que se cumplan las predicciones de los optimistas o acabaremos en otra gran decepción? Es difícil de predecir.

P. Hace solo tres años, el futuro iba a ser el metaverso. Hoy ya nadie habla de ello. ¿Cree que con la IA puede pasar algo similar?

R. Sucede continuamente con las grandes innovaciones tecnológicas: se produce una especie de gran burbuja publicitaria, luego no se cumplen las expectativas y la gente se decepciona, y finalmente la tecnología sale adelante. Ese desarrollo resulta ser útil, pero no tan brillante como la gente esperaba. Es probable que eso sea lo que pase con la IA.

P. Usted sostiene que los sistemas de IA carecen de comprensión semántica o sentido común y, por tanto, no pueden ser realmente inteligentes. ¿Cree que eso cambiará en algún momento?

R. Es posible. No hay ninguna razón por la que no podamos conseguir desarrollar una máquina así. La pregunta es, ¿cómo llegamos hasta allí? ChatGPT se ha entrenado con todos los libros y textos digitales disponibles, así como con todos los vídeos e imágenes de internet. Pero hay cosas que tienen que ver con el sentido común y el conocimiento y que no están codificadas en el lenguaje y los datos: solo se pueden captar a través de la experiencia. Quizás las máquinas no podrán pensar de forma más humana hasta que no experimenten el mundo como nosotros hacemos. Hay un gran debate en la disciplina de la IA acerca de esto. Sospecho que el gran salto se producirá cuando la máquina no solo sea entrenada pasivamente en el lenguaje, sino que también experimente activamente el mundo como lo hace un niño.

La historia de la IA ha demostrado que nuestras intuiciones sobre la vida y la inteligencia a menudo son erróneas, que en realidad todo es mucho más complejo de lo que pensábamos

P. Cuando tengan forma de robot.

R. Sí. Una IA insertada en un robot podría tener el mismo tipo de educación o desarrollo que un niño. Es algo con lo que ya especuló en los años 50 Alan Turing, uno de los padres de la informática. Esa idea cobra más sentido ahora.

P. Usted describe en el libro cómo funciona la IA y lo poco que tiene eso que ver con nuestra forma de razonar. ¿Importa el proceso si cumple su función?

R. Depende de para qué quieras usar el sistema. El GPS de mi coche puede encontrar una ruta de ida y vuelta a donde quiero ir. No entiende el concepto de carretera o tráfico, pero hace un buen trabajo. La pregunta es si realmente queremos que los sistemas interactúen de manera más general con el mundo humano. ¿Hasta qué punto tendrán que entenderlo? Hubo un caso en el que un vehículo autónomo frenaba de golpe en un momento determinado, y el conductor no sabía por qué. Resultó que había una valla publicitaria con un anuncio que tenía una señal de stop. ¿Podrá evitar errores como ese? Solo cuando comprenda el mundo como nosotros.

P. ¿Hasta dónde cree que puede llegar la IA?

R. No veo que haya ninguna razón por la que no podamos desarrollar máquinas con una inteligencia equiparable a la del ser humano. Pero va a ser muy difícil llegar hasta ahí, no estamos cerca de ello. En la década de 1970 se pensaba que cuando las máquinas pudieran jugar al ajedrez al nivel de un gran maestro se habría logrado igualar la inteligencia humana. Resultó no ser así. Luego se dijo que cuando fueran capaces de traducir textos o mantener conversaciones. Tampoco ha pasado. Toda la historia de la IA ha demostrado que nuestras intuiciones sobre la vida y la inteligencia a menudo son erróneas, que en realidad todo es mucho más complejo de lo que pensábamos. Y creo que eso seguirá siendo así. Vamos a aprender mucho más sobre lo que realmente significa ser inteligente.

Decir que los sistemas de IA podrían desmadrarse y destruirnos es, como mínimo, una afirmación muy improbable y especulativa

P. Entonces habrá merecido la pena.

R. Uno de los objetivos de la IA es ayudar a entender qué entendemos por inteligencia. Y, al tratar de implementarlo en máquinas, nos solemos dar cuenta de que realmente incluye muchos elementos que no consideramos.

P. Algunos pioneros de la IA, como Geoffrey Hinton, creen que esta tecnología se puede volver difícil de controlar. ¿Usted qué opina?

R. La IA conlleva muchos tipos de peligros. Se puede usar para producir desinformación y deepfakes. Hay sesgos algorítmicos, como el que comenté en el caso del reconocimiento facial. Hinton y otros van más allá y dice que estos sistemas podrían desmadrarse y destruirnos. Esta afirmación es, como mínimo, muy improbable y especulativa. Si llegamos a desarrollar un sistema superinteligente, dudo que no le importen nuestros valores, como que matar a todos los humanos no está bien. Centrarse tanto en esta idea tan dramática de las amenazas existenciales para la humanidad solo consigue desviar la atención de cosas que son realmente importantes en este momento.

P. ¿Cree que, como sociedad, estamos abordando adecuadamente esas amenazas a las que nos enfrentamos hoy?

R. Sí, aunque a la legislación siempre le cuesta llevar el ritmo de la innovación. La UE ha dado un primer paso con el Reglamento Europeo de la IA. Una de las cosas que estamos viendo en EE UU son las demandas por derechos de autor. Todos estos sistemas están entrenados con enormes cantidades de texto e imágenes. Si no se ha pagado por su uso, ¿estamos ante una infracción de derechos de autor? La ley no está clara porque se promulgó mucho antes del desarrollo de esta tecnología. Veremos cómo se resuelve esto.

Los neurocientíficos no entienden cómo funciona el cerebro y hacen experimentos para tratar de encontrarle sentido a lo que ven. Eso es lo que pasa ahora con la IA generativa

P. ¿Cuál es la aplicación de IA más impresionante que ha visto últimamente?

R. Lo que más me entusiasma es la aplicación de estos sistemas a problemas científicos. DeepMind, por ejemplo, trabaja en el uso de IA para predecir la estructura de las proteínas. También se está usando para desarrollar nuevos materiales y medicamentos. Estamos en una especie de nueva era de la ciencia, puede que tan importante como la que se inauguró con la llegada de los ordenadores.

P. Dice en el libro que quienes calibran los sistemas de aprendizaje profundo, la técnica más avanzada de IA, parecen alquimistas en vez de científicos, porque ajustan parámetros en las máquinas sin saber exactamente lo que hacen.

R. Poco después de escribir el libro se empezó a hablar de los ingenieros de prompts [las instrucciones que se le da las herramientas de IA generativa]. Su trabajo es tratar de hacer que el sistema tenga el mejor rendimiento posible. Resulta que hay gente que está ganando mucho dinero haciendo ese trabajo. Y es pura alquimia, no hay ciencia alguna detrás. Solo se trata de probar cosas. Algunas funcionan y otras no, y no tenemos ni idea de por qué.

P. Resulta irónico que quienes tratan de optimizar una de las tecnologías más sofisticadas de la historia de la humanidad lo hagan a ciegas.

R. Estos sistemas son, en cierto sentido, cajas negras. Son sistemas de software enormemente complejos que no se han programado explícitamente para hacer cosas, sino que se han entrenado, han aprendido de los datos y nadie puede averiguar por qué funcionan de la manera en que lo hacen. Los neurocientíficos tampoco entienden cómo funciona el cerebro, y hacen experimentos para tratar de encontrarle sentido a lo que ven. Eso es lo que pasa ahora con la IA generativa.

Puedes seguir a EL PAÍS Tecnología en Facebook y X o apuntarte aquí para recibir nuestra newsletter semanal.

Suscríbete para seguir leyendo

Lee sin límites

_