Los chips están en todas partes. “No solo en los objetos, sino también en nosotros mismos”, dice Alberto Sangiovanni Vincentelli (Milán, 1947), catedrático de la Universidad de California en Berkeley y una autoridad cuando se trata de la revolución de los circuitos electrónicos. Están en los móviles, ordenadores, automóviles, electrodomésticos, juguetes y hasta en el prosciutto, jamón ibérico en italiano. Poner un chip al lado del hueso de la pata del cerdo para medir la salinidad y la humedad del jamón —las dos cosas más importantes a la hora de decidir si está listo para comer—, fue una de sus ideas. Hoy, el prosciutto inteligente es una realidad, así como los sensores que llevan los futbolistas para medir su desempeño o confirmar que están en el campo. Ambas invenciones pasaron por su despacho de Berkeley hace “unos veinte años”. También los chips de Elon Musk para el cerebro, algo que desarrolló un colega suyo de la universidad estadounidense “hace mucho tiempo”.
Sangiovanni Vincentelli se adelantó en el tiempo con sus ideas y creó las herramientas que hicieron posible tener estas tecnologías al día de hoy. Ha sido galardonado con el premio Fundación BBVA Fronteras del Conocimiento por su contribución al diseño y a la mejora de los chips, que están presentes en los dispositivos electrónicos de la actualidad. Ha sido referencia en los últimos 50 años por trasladar el conocimiento entre el mundo académico y las empresas, facilitando la transformación en el comercio de chips al rededor de planeta.
El investigador habla con EL PAÍS por videoconferencia desde una localidad montañosa al oeste de India, donde ha viajado para un encuentro de consejeros de una de sus diez compañías. Sangiovanni Vincentelli fundó, además, las empresas Cadence y Synopsis, referencias en la industria electrónica mundial por desarrollar los programas utilizados en cada uno de los chips de la actualidad.
Pregunta. ¿Cómo se siente al ver que su trabajo se utiliza en todo el mundo?
Respuesta. Es increíble. En algún momento, surge como algo natural. Diseñas un componente con sus herramientas y es como la persona que inventó el martillo. Toda la gente lo usa, pero quien lo ha creado no pensó, en su momento, que estaba construyendo cada martillo que hay el mundo. Lo que hacemos es ayudar a la gente a diseñar chips que van en cada objeto hoy en día.
P. Cuando empezó su trabajo hace 50 años, ¿podía imaginar que eso pasaría?
R. Sí, sin duda. No era difícil imaginarlo. Estaba claro que se podía hacer chips cada vez más pequeños, más potentes y más baratos. Y así sucesivamente. Se podía imaginar todo tipo de aplicaciones. Quiero decir, no podía hacerlo, pero era obvio que iría en esa dirección. De hecho, uno de los fundadores de Intel, Gordon Moore, postuló la Ley de Moore, la cual estipulaba que cada dos años se duplicaría el número de chips en un sustrato. Y eso se mantuvo hasta ahora. Es increíble, porque fue hace 45 años. Varios de nosotros tuvimos la misma idea.
P. ¿Es físicamente sostenible mantener este parámetro?
R. Decimos muchas veces que no podemos más. Recuerdo a un buen colega mío y una autoridad en tecnología, el profesor James Meindl, cuando los transistores tenían cerca de una micra [equivalente a la millonésima parte de un metro] dijo en un discurso: “Esto es todo, no podemos más”. Pero ahora estamos a un nanómetro [la millonésima parte de un milímetro], que supone unos pocos átomos, uno encima del otro. Así que no se puede hacer mucho más. Incluso, los dispositivos ya son tan pequeños que ya no se comportan como un transistor y se convierte en un componente estocástico, donde no se puede predecir muy bien lo que sucede.
Estamos acercándonos a los límites físicos, pero no al final de la capacidad de la microelectrónica
P. ¿Cuáles son las complicaciones?
R. La primera es el proceso de fabricación, cómo hacer algo tan pequeño. La luz ya no llega ahí y se empieza a usar E-beams [haz de electrones] y láser para poder llegar a un nanómetro. Pero por debajo de eso, no está claro lo que se puede hacer. La segunda es que por ser tan pequeño no se comporta de manera determinada. La última, es demasiado caro y ¿realmente vale la pena? Actualmente, una nueva línea de fabricación de tres nanómetros cuesta alrededor de cinco mil millones de dólares. Estas tres cosas revelan que estamos acercándonos a los límites físicos, pero no al final de la capacidad de la microelectrónica. Podemos hacer algo que se llama paquetes multichip.
P. ¿Significaría unir a varios chips en lugar de tener un único superpotente?
R. Esto es lo que hemos estado haciendo desde los años cuarenta, cuando se inventó el transistor. Poner los componentes en la parte superior del sustrato y conectarlos entre sí. Por otro lado, hacer un solo circuito integrado en un único chip es interesante por el rendimiento, porque va más rápido, consume menos energía, y hasta puede ser más barato en términos de fabricación. Pero cuando desarrollarlo es demasiado caro, hay que volver atrás y usar la antigua fórmula. Ahora, lo que se quiere hacer es enlazar a varios chips desnudos. En lugar de tenerlo embalado, envuelto en un plástico y conectado en el tablero, es utilizarlo tal y como sale de las líneas de fabricación. Queda como una tarta, pero con mil capas. La distancia entre ellos es muy corta, por lo que el rendimiento no es tan bueno, entonces es una solución intermedia. Ahora se les llama chiplet, que es un nombre gracioso para los módulos multichip, que empezamos a pensar hace unos 30 años.
P. ¿Por qué no se ha ido por esta vía desde entonces?
R. Hubo empresas que intentaron hacerlo, pero todas fracasaron. Y la razón es que la tecnología estaba avanzando muy rápidamente. El momento en que había el paquete multichip, ya existía el chip único que lo contenía todo. Aunque hubiese un chip desnudo, el otro era mejor. Pero ahora no podemos exprimir más cosas, por lo que debemos recuperar el nacimiento de la tecnología.
P. ¿En el escenario de los microprocesadores se sobreestima el aprendizaje automático?
R. Sí, totalmente. Desafortunadamente, la tecnología avanza a pasos agigantados y algunos de los saltos se dan por fe. Algo suena bien, se proyecta y se extrapola lo que puede hacer. El aprendizaje automático es solo un capítulo de la inteligencia artificial. Imagina que hay una caja negra y la quiere descifrar. Entonces se hace un experimento: le introduce algo, ve lo que sale, y luego intenta adivinar lo que hay dentro. Y aquí viene la diferencia entre la física y el aprendizaje automático, que en mi opinión, es solo un enfoque para la identificación. Lo que se hacía en los viejos tiempos con una caja negra era tratar de descubrir cuál era la física dentro. Entonces se observaba el fenómeno y se preguntaba qué podría explicarlo. Este es un punto clave. Nuestra mente, con modelos matemáticos modernos y experimentación, tratan de explicar el porqué. La inteligencia artificial no puede hacerlo, porque no conoce el mecanismo en la base del porqué un dispositivo se comporta de tal manera. Pero si quiere buscar en la web con ChatGPT está bien, no hay ningún problema ahí. Si pierde algo, nadie muere. Pero si el fallo es en la conducción autónoma, eso es otra historia, una persona puede morir.
P. ¿Cómo de lejos puede llegar esta inteligencia?
R. Un colega mío empezó a hacer preguntas capciosas y llegó un momento en que ChatPGT dijo cosas sin sentido. Se puede hacer trampa. Con respecto a la manera intuitiva de usar internet, a veces me enfado porque si estoy en Singapur o en India y busco dónde puedo ver a [un partido de] AC Milan contra el Tottenham, me salen todos los canales locales. Pero eso no me interesa, porque quiero saber en qué canal italiano. Incluso si digo “en Italia” me sigue dando todos los canales de India. Sin embargo, si le digo a ChatGPT “quiero saber los canales que muestran el AC Milan en Italia” lo hará sin ningún problema. Elimina la frustración de dedicar tiempo a buscar algo que podría haberse hecho de forma más inteligente. Y puede aplicarlo de forma interactiva, a mí me encantaría algo como Alexa. A veces, ella hace un trabajo maravilloso y ChatGPT es sin duda mucho más potente que Alexa porque es un modelo más grande y por eso puede exprimir más conocimiento sobre mi pasado.
P. ¿Qué le gustaría ver en los próximos años con respecto a este tipo de tecnología?
R. El punto clave es entender cuál es su limitación. En lugar de decir que todo es bueno, es preguntarse cuál es el lado negativo de la tecnología que estamos desarrollando. Siempre hay un lado negativo, pero la gente no lo difunde. En cierta medida, trato de hacer todo lo que pueda, sería bueno que todos estudien los pros y los contras. Sobre el aprendizaje automático o de ChatGPT, son excelentes. Pero hay que platearse cuál es el lado negativo, qué se puede garantizar con esta tecnología, dónde se la utiliza mejor y en qué no debe ser empleada. Piensa sobre CRISPR-Cas9, que nos permite modificar nuestros genes de una manera precisa. Puede eliminar las enfermedades genéticas, pero también puede llegar a ser como los nazis, todo el mundo nace con los ojos azules, podrías hacerlo ahora por cierto. ¿Cómo nos aseguramos de que algo así no suceda?
Puedes seguir a EL PAÍS Tecnología en Facebook y Twitter o apuntarte aquí para recibir nuestra newsletter semanal.
Suscríbete para seguir leyendo
Lee sin límites