El campo de batalla en el que Google Cloud Platform (GCP), Amazon Web Services (AWS) y Microsoft Azure se disputan el dominio del mercado se ha desplazado en gran medida desde el ámbito de las nubes al de la IA generativa, dado que todas ellas pugnan por ofrecer nuevos LLM (siglas inglesas de gran modelo lingüístico) para una variedad cada vez mayor de casos de uso y dispositivos.
La firma de analistas Omdia entiende que GCP lidera la tecnología de IA de vanguardia, al tiempo que destaca los precios y la eficiencia operativa de AWS.
También según Omdia, Microsoft, que obtuvo una posición inicial de liderazgo mediante su inversión multimillonaria pionera en OpenAI, pivota hacia los chips personalizados.
Durante el reciente congreso I/O celebrado por Google, Sundar Pichai, consejero delegado, señaló que su firma lleva más de una década invirtiendo en IA, lo que, según Omdia, le da ventaja en investigación fundamental.
Recordemos que la IA generativa es un subconjunto de la IA en general. Richard Windsor, de Radio Free Mobile, la define como “IA capaz de generar contenido tales como palabras, imágenes y, ahora, también vídeo”.
Cifras
Si bien no es fácil seguir el volumen de ingresos que cada uno de los grandes proveedores de nube genera mediante la IA, Andy Jassy, consejero delegado de Amazon, explicó en la teleconferencia sobre los beneficios del primer trimestre de 2024 realizada por su empresa que AWS “ya ha acumulado un ritmo de ingresos de miles de millones de dólares”.
Los ingresos de AWS han experimentado un crecimiento interanual del 17% que los ha llevado hasta los 25.000 millones de dólares (unos 23.100 millones de euros). Brian Olsavsky, director de Finanzas, ha señalado que se observa una fuerte demanda de cargas de trabajo en IA, tanto generativa como no generativa. Según el directivo, los clientes firman contratos más largos y asumen mayores compromisos.
Jassy señala que la mayor parte de los programas de optimización de costes mediante la nube ya se han completado en gran medida y que las empresas centran ahora su atención en nuevas iniciativas, como pueden ser la ejecución de servicios de IA generativa en las infraestructuras de AWS.
Durante el primer trimestre, los ingresos de Google Cloud han crecido en un 28%, hasta situarse en 9.500 millones de dólares (unos 8.800 millones de euros), debido a la demanda de herramientas de IA generativa necesitadas de infraestructuras, servicios y aplicaciones en la nube. Según Pichai, la empresa va por buen camino para obtener “vías claras de monetización de la IA a través de la publicidad y la nube, así como de suscripciones”.
Satya Nadella, consejero delegado de Microsoft, señala que los ingresos generados durante el tercer trimestre por las nubes –Azure incluida– superan los 35.000 millones de dólares (unos 32.400 millones de euros), con un incremento del 23%. El directivo indica que el número de contratos de Azure por valores superiores a 100 millones de dólares (unos 92 millones de euros) han aumentado en más del 80%, y que los de más de 10 millones de dólares (unos 9,2 millones de euros) se han duplicado con creces.
Synergy Research Group atribuye a la IA generativa el crecimiento del gasto empresarial en servicios de infraestructura de nubes, que ha superado los 76.000 millones de dólares (unos 70.200 millones de euros) en el primer trimestre, con un incremento de 21% respecto al año anterior.
Alex Smith, vicepresidente de Canalys, ha señalado que los proveedores de servicios en la nube incorporan la IA a sus productos y servicios para que la integración “no sea algo novedoso, sino la norma”.
Clasificación
Roy Chua, fundador y director de AvidThink, ha declarado a Mobile World Live que aún es pronto para designar un vencedor en IA generativa entre los tres grandes hiperescaladores. Chua señala que, si bien AWS, GCP y Microsoft Azure apuestan fuerte por la IA, “cada uno de ellos sigue estrategias que son distintas, pero se solapan”.
Ha explicado que existen muchas similitudes en sus respectivos tratamientos de la IA generativa, como por ejemplo la adopción de modelos de código abierto, la provisión de jardines y bibliotecas de modelos abiertos y cerrados, y el preentrenamiento de sus propios modelos fundacionales a diferentes escalas para una variedad de casos de uso.
Las tres ofrecen también plataformas de desarrollo y canales de IA para formación, ajuste y creación de IA generativa y de aplicaciones basadas en IA.
Según Chua, “también están vinculando sus activos y datos en nube dentro de su propio almacenamiento en la nube, y construyendo y diseñando mejores productos de silicio para mejorar el rendimiento y la eficiencia. Pero la diferencia radica en las relaciones que han forjado y en la escala de su inversión en modelos fundacionales, productos de silicio y segmentación.”
Chua ha señalado que Google, aparte de sus capacidades internas en materia de IA, también desarrolla sus propios modelos fundacionales dentro de la familia Gemini, así como inversiones continuadas en otros proyectos como Google DeepMind.
Ha explicado que, si bien Microsoft ha apostado fuerte por OpenAI, el gigante tecnológico también innova por su cuenta. Así, por ejemplo, ha fichado a Mustafa Suleyman, uno de los fundadores de Inflection AI y Google DeepMind, para que dirija su grupo de productos de consumo provistos de IA.
Según Chua, Microsoft recurre a una estrategia de cobertura con otros proveedores de modelos de cimentación, como Mistral, y modelos de código abierto como Llama, de Meta Platforms, y Falcon, del Instituto de Innovación Tecnológica de Abu Dabi.
Chua afirma que “durante estos últimos tiempos también ha presentado y distribuido algunos modelos impresionantes, como el Phi-3. El Phi-3 mini, en particular, tiene un rendimiento notable, a pesar de su tamaño relativamente pequeño.”
En la misma línea, señala que AWS ha realizado una importante inversión en Anthropic, y que muchos de los modelos Claude de Anthropic contribuyen a muchos de sus principales casos de uso.
Por otra parte, explica que los modelos fundacionales Bedrock de AWS promueven múltiples modelos tanto de propiedad como de código abierto, así como un enfoque agnóstico respecto al propio modelo. Se centra en el flujo de trabajo, la plataforma y las capacidades de datos de la nube de AWS para la formación, puesta a punto y uso de modelos.
Según Chua, “AWS también desarrolla capacidades de aumento, con lo que proporciona mecanismos de llamada a funciones y guardarraíles para su segmentación de IA”.
Además, subraya que AWS ha destacado las mejoras en coste y rendimiento, así como la mayor eficiencia energética de los productos de silicio personalizados que se hallan en sus chips Trainium e Inferentia, destinados a cargas de trabajo de IA.
Chua ha explicado a MWL que se rumorea que AWS está entrenando un nuevo modelo fundacional cuyo nombre en clave interno es Olympus.
Tendencias actuales
Omdia entiende que los hiperescaladores son proveedores cruciales de servicios de computación para la mayor parte de la industria de la IA y, con toda probabilidad, el primer punto de contacto para quienes establecen una infraestructura de inferencia de modelos al servicio de los clientes.
Jassy explica que, si bien el trabajo se centra por ahora en entrenar los modelos de IA, los ingresos se trasladarán a los modelos de IA de inferencia una vez estos entren en producción.
Afirma que “se gasta mucho más en inferencia que en entrenamiento, porque éste sólo se lleva a cabo de vez en cuando, mientras que las predicciones e inferencias son algo constante. También vemos bastantes firmas que construyen sus aplicaciones de IA generativa para efectuar inferencias sobre la base de AWS.”
Omdia pronostica que la inferencia supondrá una parte cada vez mayor de la demanda mundial de computación para la IA, pero afirma que tanto Google como Microsoft llevan un retraso considerable respecto a AWS en inferencia de CPU.
También se está produciendo una transición de los modelos lingüísticos monolíticos a los modelos personalizados.
Gartner prevé que más del 50% de los modelos de IA generativa utilizados por las empresas serán específicos de un sector o función empresarial en 2027, frente al 1% de 2023.
¿Una burbuja a punto de estallar?
Windsor, de Radio Free, explica en una nota de investigación que la causalidad es, con diferencia, la mayor limitación de la IA generativa, “porque sus modelos carecen de comprensión causal sobre lo que están haciendo”.
Señala que dicha falta de comprensión lleva a que los grandes modelos lingüísticos inventen hechos, cometan errores simples y “no se den cuenta de lo que están haciendo”.
Según Windsor, “es indudable que las valoraciones y expectativas son excesivas”.
El analista opina que el enorme volumen de capital que se está invirtiendo en IA generativa se debe al interés desbordado del público, pero que la gran mayoría de los grandes modelos lingüísticos son más o menos equivalentes en términos de rendimiento, “lo que implica competencia y caída de precios”.
Prevé que todo ello “provocará un retorno a la realidad”.
Comments