En el taller de Qualcomm Technologies para analistas y medios de comunicación celebrado en junio, Durga Malladi (en la foto), vicepresidente sénior y director general de planificación tecnológica y soluciones Edge de la empresa, ha defendido –como no podía ser de otro modo– que la IA resida en los dispositivos y no en la nube, y ha argumentado que la atención que se presta en la actualidad a dicha tecnología no es una de tantas modas sin sustancia.
El argumento con el que Qualcomm, empresa productora de chips, defiende que la IA se halle en los dispositivos no es en absoluto inesperado. Según Malladi, su firma “trabaja sin descanso” a fin de desplazar el procesamiento desde la nube “hacia el Edge, y que se ejecute directamente en el dispositivo”.
Ha señalado que los enormes avances en las capacidades de procesamiento computacional de los dispositivos actuales, unidos a las mejoras en tecnología de conectividad, hacen que dicho cambio sea plenamente factible. Aun así, reconoce que las mismas redes de alta velocidad que hacen posible la presencia de IA en los dispositivos también podrían proporcionar un servicio rezonable alojado en la nube, sobre todo a medida que el número de parámetros en los modelos utilizados empieza a contarse en millones.
Malladi ha observado que siguen planteándose cuestiones en torno al escalado de la IA, a pesar de la potencia de cálculo disponible.
La ejecución de funciones de IA en el dispositivo puede resultar complicada, pero el directivo de Qualcomm asegura que las ventajas que ofrece deberían imponerse a los inconvenientes de depender de la nube, y ha hecho referencia al coste y la creciente complejidad de las tareas que tiene que gestionar dicha tecnología.
Malladi ha explicado que el coste de la inferencia “crece exponencialmente, sobre todo si se ejecuta tan sólo en la nube”, lo que podría resultar problemático en el futuro.
Ya no hablamos únicamente de chatbots
DURGA MALLADI – VICEPRESIDENTE SÉNIOR Y DIRECTOR GENERAL DE PLANIFICACIÓN TECNOLÓGICA Y SOLUCIONES EN EDGE QUALCOMM TECHNOLOGIES
En su argumentación, Malladi se ha referido a un estudio publicado por Reuters en 2023 sobre el nivel de procesamiento de IA generativa necesario para ejecutar una parte de las consultas a Google Search a través de la nube. Según dicho estudio, los costes son “exorbitantes”. Malladi afirma que superan todas las ganancias que se puedan obtener mediante la reducción en el precio del hardware.
“Lo segundo es que las aplicaciones de las categorías implicadas crecen mucho en complejidad. Esto ya no es un simple chatbot.”
Según Malladi, los servicios exigen una mayor multimodalidad, con imágenes, voz y otras adiciones que, según el directivo, hacen que resulte “más difícil” escalarlos. Si a esto añadimos el número de usuarios reales, las cifras de “generación de tokens y procesamiento de imágenes” resultan aún más abrumadoras.
Además, el directivo ha subrayado los problemas medioambientales asociados a la creciente demanda de computación en la nube. Ha citado predicciones según las cuales el volumen energético requerido por la IA podría ascender al 3,5% del consumo energético mundial para 2030.
El inicio de una nueva era
Malladi considera que la moda actual de la IA constituye la “tercera primavera” de una tecnología que, según ha explicado, existe al menos desde mediados del pasado siglo.
Ha destacado el desarrollo del Test de Turing en los años 50. Según la Enciclopedia Británica, dicho test evalúa la capacidad de un ordenador para razonar como lo harían las personas. El directivo considera que ese fue uno de los primeros pasos en lo que él denomina la primera “primavera” de la IA.
Aquella primavera se caracterizó por un gran número de conceptos originales, como por ejemplo el desarrollo de ELIZA. El Instituto Tecnológico de Nueva Jersey lo define como un programa de procesamiento del lenguaje natural escrito a mediados de los años sesenta por el profesor Joseph Weizenbaum, del Instituto Tecnológico de Massachusetts.
Un apunte interesante es que en un primer momento ELIZA recibió el nombre de chatterbot, término prácticamente idéntico al actual y más abreviado chatbot.
Según Malladi, aquella primera primavera dio paso en seguida a un invierno, puesto que las investigaciones realizadas durante los años 60 demostraron que la capacidad de aprendizaje de los chatbots no se acercaba ni de lejos a los “ambiciosos objetivos” que se buscaban.
Habría que esperar hasta principios de los 80 para que comenzara la segunda primavera de la IA, con sistemas expertos, redes convolucionales profundas y capacidades de procesamiento distribuido en paralelo que allanaron el camino. Malladi ha explicado que factores tales como la entrada en juego de la pericia humana y la generalización de los ordenadores personales provocaron el final de aquel ciclo de interés por la inteligencia artificial a principios de los años 90, en lo que constituyó un segundo invierno.
A pesar de aquel segundo parón, Malladi observa avances en conceptos relacionados con el reconocimiento de la escritura y los números, como por ejemplo la posibilidad de que los cajeros automáticos reconocieran los números de los cheques que se ingresaban.
Por irónico que resulte, son los avances realizados en la década de los 90 los que hacen confiar a Malladi en que la actual primavera de la IA no terminará en un nuevo parón.
Ha destacado el nacimiento de la Internet de consumo, que permitió acceder a una enorme cantidad de datos, mientras que la falta de acceso a semejante volumen había sido un obstáculo en las dos décadas anteriores. El segundo factor fue el espectacular aumento de la potencia de cálculo disponible. Malladi ha señalado que los ordenadores de sobremesa y los portátiles adquirieron una mayor capacidad de procesamiento, lo que transformó los cimientos de la IA.
Malladi ha explicado que “nos hallamos en la tercera primavera de la IA y nuestra predicción es que esto no tendrá vuelta atrás”, y que la capacidad de procesamiento de los dispositivos y el volumen de datos disponibles en fuentes públicas y empresariales implican que “la automatización ya podría introducirse a gran escala” en casos de uso dirigidos a consumidores y a la productividad.
Seguridad
Malladi ha retomado el tema de la IA en los dispositivos mediante un análisis del tipo de datos que se utiliza hoy en día.
El directivo observa un crecimiento en la demanda de respuestas más personalizadas en los servicios de consumo con IA, pero también una mayor exigencia de seguridad. Así, poniendo como ejemplo los historiales médicos, ha explicado que un asistente de voz de IA no debe ofrecer datos de dominio público, sino información personalizada, pero esto supone un riesgo al implicar un procesamiento en la nube.
“¿De verdad queremos acceder a esos datos y luego enviarlos a la nube para que se realicen inferencias dentro de esta y luego nos responda? ¿Y por qué, si podemos llevar a cabo toda la operación dentro del propio dispositivo?”
En la Snapdragon Summit 2023 de Qualcomm se efectuó una demostración de otro posible uso, consistente en buscar información sobre un objeto apuntando el móvil hacia él. Malladi ha explicado que se necesita contexto para generar una respuesta y que esto incluye deducir la posición del usuario a partir de varios sensores, una tarea que implica “un gran volumen de información” y que es “muy local y contextual”.
Malladi ha argumentado que estos ejemplos nos muestran que la privacidad de datos es necesaria y que por ello la IA alojada en el dispositivo “es el camino que hay que seguir”.
Ha explicado que, en un contexto empresarial, tal vez se necesite acceder a datos que no se hallan en las propias instalaciones, y ha señalado que el acceso a servidores corporativos o servicios en la nube puede variar en función de dónde se encuentre el empleado.
Ha añadido que, “independientemente de la conectividad, se busca una experiencia de IA uniforme”, y ha señalado que si es posible ejecutarla en el propio dispositivo “se pueden obtener respuestas sin que la calidad de la conectividad tenga ningún papel en ello”.
Objetivos comunes
Malladi ha señalado la importancia de las alianzas entre organizaciones y de las cuestiones éticas, temas recurrentes en muchos debates recientes de alto nivel sobre la IA.
Ha subrayado que Qualcomm no crea modelos de IA generativa, lo que significa que el desarrollo de estándares para evaluarlos es cada vez más importante, puesto que los desarrolladores tienden a establecer normas propias sobre lo que consideran justo o seguro.
Qualcomm participa en el desarrollo de dichos estándares. Malladi ha hecho referencia a la labor del grupo de trabajo sobre seguridad en IA de ML Commons, un consorcio de ingeniería que tiene como objeto dicha tecnología.
Ésta es una iniciativa buena de verdad, que al menos en EEUU ha alcanzado reconocimiento como punto de partida.
DURGA MALLADI – VICEPRESIDENTE SÉNIOR Y DIRECTOR GENERAL DE PLANIFICACIÓN TECNOLÓGICA Y SOLUCIONES EN EDGE QUALCOMM TECHNOLOGIES
Las alianzas tejidas por la empresa tienen un papel importante en su trabajo en ética y principios. Malladi ha explicado que Qualcomm no sólo coopera con fabricantes de equipos, sino también con gobiernos y organismos reguladores, en parte para explicar qué es la IA “y qué no es”. Por otra parte, también colabora con desarrolladores, lo que comporta ofrecer acceso a la realización de pruebas en un centro en el que se trabaja con los distintos productos de silicio compatibles de la firma.
“Nuestra labor no consiste en explicarles los entresijos de nuestra NPU y nuestra CPU, sino en facilitarles mucho más el acceso” a los chips “sin que tengan que conocer todos sus detalles”.
Malladi ha argumentado que la opción por mantener los datos en un ámbito local, en vez de mandarlos a la nube, también podría tener un papel clave en la ética de la IA, si bien reconoce que la seguridad conserva su importancia aun cuando la información se almacene en el dispositivo. “Esto no tiene nada que ver con la IA per se, pero creo que en el contexto de la IA es aún más importante”.
El directivo ha señalado la creciente preocupación de los organismos reguladores por las falsificaciones profundas (deepfakes) y ha explicado que un aspecto importante de dicha cuestión consiste en determinar qué se considera propiamente falsificación. Se ha preguntado si efectuar algunas modificaciones sencillas en una imagen se considera falsificación y ha añadido que Qualcomm considera esto último un primer elemento original, mientras que el aumento de imagen sería un segundo, y las imágenes totalmente sintéticas, un tercero.
Según Malladi, Qualcomm colabora con Truepic, proveedor de herramientas de transparencia para la seguridad en el contenido, a fin de verificar los metadatos que abarcan los tres tipos de elementos y proporcionar un “certificado de autenticidad” que ofrezca cierto grado de transparencia.
Malladi ha señalado que, aparte de que numerosos smartphones emblemáticos incorporen directamente IA, el ritmo de desarrollo de los modelos lingüísticos favorece también el trabajo de Qualcomm, porque ahora las empresas pueden realizar más tareas con menos opciones de parámetros.
Como ejemplo, ha señalado el Llama3 de Meta Platforms, que cuenta con opciones de 8.000 y 70.000 millones de parámetros, frente a los 7.000, 13.000 y 70.000 millones de su predecesor.
“En resumidas cuentas, los modelos que hoy llamamos pequeños son muy superiores a los grandes de ayer”, lo que a su vez permite más casos de uso en dispositivos convencionales.
Aunque Malladi, como era de esperar, haya tratado de promover en su presentación las competencias fundamentales de Qualcomm y el interés de dicha empresa en la IA alojada en dispositivos, sus opiniones tienen peso, debido a que se formó como tecnólogo y a que las redes neuronales son uno de los campos que estudió en la universidad.
Su presentación se ha sumado a un creciente consenso sobre los principales retos que plantea la aplicación de la IA, y a una comprensión cada vez mayor de la necesidad de colaboración, formación y, por supuesto, datos.
Comments