Introducción (100% IA )
“En los últimos años, la inteligencia artificial (IA) ha capturado la imaginación del público y de los inversores, prometiendo revolucionar industrias y transformar nuestra vida cotidiana. Sin embargo, detrás del entusiasmo y las expectativas, se esconde una realidad más compleja. Desde sus inicios en la conferencia de Dartmouth en 1956, la IA ha recorrido un largo camino, pasando por altibajos y enfrentando numerosos desafíos técnicos y éticos. Este documento explora el auge actual de la IA, analizando los factores que han impulsado su desarrollo, las promesas y limitaciones de las tecnologías actuales, y las señales que apuntan a una posible burbuja en el sector. A través de un análisis crítico y detallado, buscamos ofrecer una visión equilibrada de lo que realmente podemos esperar de la inteligencia artificial en el futuro cercano.
Espero que esta introducción sea de ayuda. Si necesitas algún ajuste o tienes alguna otra solicitud, no dudes en decírmelo. 😊” (NOTA: Esta es la única parte de este documento hecha con IA Copilot, irónicamente podría ser la parte mejor redactada)
Un adolescente con casi 70 años
El concepto de inteligencia artificial en si no es nuevo, se acuño oficialmente en 1956 en la conferencia de Dartmouth, un concepto más teórico y casi imposible de implementar en los escasos computadores existentes en la época, en los años 80 y 90 gracias al auge de los PC y la disponibilidad de capacidades computacionales decentes se dieron 2 desarrollos: Las Red neuronales Convolucionales y las Redes Neuronales Recurrentes. Estas permitieron el uso de las primeras IAs especializadas reconocimiento de patrones y usada en la interpretación de escritura a mano, reconocimiento de voz y sintetización de voz.
Las dos más recientes hitos en el desarrollo de los modelos que permitieron llegar donde estamos hoy en día se dieron en: 2006 - Con el desarrollo de las técnicas de aprendizaje profundo (Deep Belief Learning), la notable especialización de las GPUS en operaciones matemáticas y un rango más amplio de algoritmos (
¿Qué es una GPU y cuál es su importancia para la IA? | Google Cloud), y en 2014 - Con las Redes Generativas Adversarias.
¿Porque su auge 20 años después?
El éxito de un modelo de IA depende principalmente de 3 variables: La técnica usada (los algoritmos), La cantidad de datos con la que se entrena (o Data Set) y de la capacidad de cómputo disponible para entrenar y almacenar el modelo, cada una de las cuales requiere de inversiones enormes para disponer de personas altamente calificadas, canales de datos y enormes data centers especializados.
Simplificando quizás demasiado una historia que contiene muchos momentos y variables, podría decirse que fueron 2 principalmente los elementos que se conjugaron para que se encendiera la chispa con la que empezaron a operar los primeros grandes centros de cómputo dedicados a la IA, Primero, la crisis económica generada por la pandemia del 2020 hizo que se acumularan grandes capitales especialmente en los Estados Unidos (
EE.UU. acapara tercio del capital mundial desde la pandemia - Bloomberg), y segundo, Sam Altman quien fue clave para atraer inversores gracias su capacidad para identificar y respaldar proyectos exitosos como Reddit, Stripe y Helion, además de ser reconocido por siempre estar en el lugar adecuado, en el momento adecuado y aparentemente bien conectado en el sector de las Startup. (
OpenAI hizo famoso a Sam Altman, pero sus inversiones lo convirtieron en multimillonario - Forbes Colombia )
Mucha inversión, Hype y un muro al final de la carrera
Las empresas del sector están atrapadas en una carrera por lanzar los últimos productos y dominar el mercado, lo que les facilita conseguir más capital, todos quieren montarse en la “Ola” y aprovechar el “Hype” generado por los anuncios hechos en torno a la Inteligencia Artificial, lo que nos ha dejado a los clientes productos con deficiencias en cuanto a seguridad, tasas altas de error o sesgos marcados.
Los LLM (grandes modelos de lenguaje) que son los que más inversión han consumido muestran una desaceleración en los resultados funcionales presentados, siendo los modelos con mayor cantidad de cómputo, quienes ya han prácticamente agotado los datos disponibles para entrenar los modelos, teniendo así que hablar de la generación de datos sintéticos, lo que según los expertos limitan la capacidad de mejorar a los mismos y la calidad de los resultados obtenidos.
Los modelos de IA actuales dan señales de un estancamiento técnico y la mejora en su desempeño requiere de fuerza bruta, lo que se traduce en la necesidad de flujo constante de inversión para ampliar las capacidades de cómputo dedicadas a los mismos.
Al panorama anterior se suman los resultados de estudios realizados que muestran lo que parece un límite natural de los modelos actuales, en los que para mejorar la tasa de error de los modelos dependen directamente de aumento exponencial las capacidades de cómputo, lo que apunta hacia una ley fundamental que limita a los modelos de IA. Y es que un modelo de IA reduce su tasa de error a medida que se entrena, pero llega a un punto en el que esa tasa no mejora y se estabiliza, para obtener tasas más pequeñas de error se requieren modelos de IA mas grandes lo que requiere capacidades de cómputo mayores, pero de nuevo la tasa de error se estabiliza y terminamos con curvas (líneas en escala logarítmica) que muestran una barrera (el área debajo de esas líneas) que ningún modelo ha podido superar.
La promesa de los Agentes IA
En el último trimestre de 2024 Microsoft, IBM y OpenAI seguido una media docena más de compañías (híper competencia - uno de los problemas actuales de segmento) anunciaban Los Agentes IA, un producto que promete la masificación del uso de las IA en nuestra vida cotidiana, visto también por algunas empresas como una oportunidad de reducción de costes, reemplazando personas que realizan tareas específicas, por este tipo de autómatas:
A pesar de que en el papel estas compañías comparten un sinnúmero de casos de éxito, los mismos contrastan con las pruebas realizadas por la Universidad de Cornell a diferentes Agentes, en las cuales la mayoría de ellos obtiene altas tasas de error, en la ejecución de pruebas simples, logrando en el mejor de los casos una tasa de éxito de apenas el 30% para completar las tareas de forma autónoma (de un total de 175 tareas)
¿Muestra esto tal vez que prima el afán de impactar el mercado con noticias alentadoras para no afectar el flujo de dinero por parte de los inversionistas y que la calidad o efectividad del producto ofrecido está en un segundo plano?
El mercado nos da señales para responder a esta pregunta, un informe reciente de Gartner (
Gartner Predicts Over 40% of Agentic AI Projects Will Be Canceled by End of 2027) predice que más del 40 por ciento de los proyectos de agentes de IA iniciados por empresas serán cancelados en 2027 debido a costos fuera de control, valor comercial vago y riesgos de seguridad impredecibles, Anushree Verma, analista directora senior de Gartner dijo: "La mayoría de los proyectos de IA con agentes en la actualidad son experimentos en etapas iniciales o pruebas de concepto que en su mayoría están impulsados por la publicidad exagerada y a menudo se aplican incorrectamente" .
El informe señala un marcado "lavado de imagen", en la que productos existentes se rebautizan como agentes de IA para aprovechar el auge tecnológico actual. Ejemplos de ello son la función "Inteligencia" de Apple en el iPhone 16, por la que enfrenta una demanda colectiva, y el falso " analista financiero de IA " de la firma de inversión Delphia, por el que se enfrentó a una multa de 225.000 dólares.
Rumores de una Burbuja
No son pocos los expertos que al ver como la relación entre valor de mercado no se relaciona con la demanda de los modelos, siendo usados masivamente para generación de contenido para redes sociales, como imágenes y videos irreales de gatitos humanoides, entrevistas en la época de los mayas o fotos con el estilo de estudio Ghibli, la experiencia ya ha mostrado que este tipo de contenido es solo moda y los clientes no perduran en el tiempo o buscan productos gratuitos para su generación, haciendo más complejo consolidad un modelo de rentabilización de las inversiones en IA.
El afán de captar capital de inversores lleva a inflar las expectativas sobre las nuevas tecnologías, y si recordamos no hace más de 2 años se quiso vender como el nuevo paradigma la realidad virtual, lo que represento un fracaso de 50 mil millones de dorales para Meta.
Estamos cayendo en la sobreutilización del término IA, haciendo que hasta el software más trivial use la IA como su ventaja más representativa, para mantener el paso de la competencia y, de paso ser la excusa perfecta para elevar los precios. No son pocos los casos de incremento en el costo de suscripción de productos por el hecho de incorporar funcionalidades de IA (
Microsoft incrementa significativamente los precios de Office 365 debido a la integración de inteligencia artificial – REM Media Consulting) y la cuestión es que en la práctica es escasa la adopción de estas funciones de IA por parte del usuario promedio, llegando a un nivel de adopción inferior al 1%, adicionalmente no hay charla de venta en la que no se mencione al termino IA como una ventaja competitiva aun cuando funcionalmente el producto o servicio en si no haya mejorado sustancialmente.
Joe Tsai, presidente de Alibaba, manifiesto en la Cumbre Global de Inversiones de HSBC en Hong Kong su preocupación por una burbuja, advirtió que los hiperescaladores (empresas de IA, como Meta Platforms y Microsoft) se están apresurando a construir centros de datos que podrían no estar justificados por la demanda futura (
Alibaba’s Joe Tsai Warns of ‘Bubble’ in AI Datacenter Buildout - Bloomberg).
Y es que son varias las señales que apuntan a similitudes con la burbuja de las “.COM” de 1999-2000, empresas asociadas estrechamente con la IA han experimentado aumentos acelerados en su valoración de mercado, que recuerdan secuencias de burbujas anteriores. OpenAI anunció un gasto de 8500 millones de dólares en personal y entrenamiento de la IA en julio de 2024, lo que en ese momento apuntaba a posibles pérdidas de 5000 millones de dólares, además la compañía no ha demostrado vías efectivas de monetización en su modelo, y aun así, los inversores valoraron la empresa en más de 100.000 millones de dólares en valor de bolsa en agosto de 2024, sin contar la salida en este año de modelos de IA chinos más económicos en cuanto costos de desarrollo y entrenamiento y con resultados sorprendentes.
Personalmente creo que vivimos esa etapa frenética en la que todos quieren montar la ola para captar la mayor cantidad de clientes, sin embargo más temprano que tarde, el mercado hará los ajustes necesarios, habrán adquisiciones y peces gordos se comerán los pequeños, también cerraran aquellas que no logren encontrar un modelo rentable, pero la IA seguirá en manos de otros, creciendo y consolidándose, solo debemos mantener una visión crítica y no dejarnos engañar por la apariencias, ni llevar por la presión de quedar por fuera de la competencia si no usamos IA.
Visión aguda y memoria crítica
Si bien incluso las tecnologías disruptivas más exitosas pasan por momentos de alta incertidumbre y aparecen mayores dudas sobre su éxito se dan luego de pasar el “pico de expectativas sobredimensionadas” y llegar “abismo de la desilusión” según el ciclo del Hype de Gartner (
Hype Cycle | Gartner | España ), tenemos casos en la historia reciente de la tecnología donde aparecer innovaciones que se autodenominan disruptivas, crean altas expectativas y mercados futuros inexistentes con el afán de recaudar en corto plazo grandes cantidades de dinero por parte de inversores y que al final fracasan quedando relegadas en el mejor de los casos a ser un producto de nicho o una funcionalidad más, ya que difícilmente cumplen con lo prometido o no logran una masificación prometida en el mercado, recordemos como hace unos 10 años se presentaba al Blockchain como una tecnología disruptiva con alto potencial para transformar procesos y asegurar la información, y al final no llego a penetrar el mercado como se esperaba debido a problemas relacionados con la escalabilidad, la interoperabilidad y la falta de casos de uso prácticos, otro caso fue la Realidad Virtual, en el que las cifras hablan por sí solas, Meta (antes Facebook) perdio cerca de 50mil millones de dólares con su proyecto de realidad virtual, Apple que esperaba vender 800.000 unidades de sus gafas de realidad virtual en el primer año, según se estima no habría alcanzado ni el 50% de esa cifra, ventas en mi opinión impulsadas en gran medida, más por el culto a la marca, que por una valoración objetiva del producto.
Riesgos y oportunidades con la IA
El nivel de desarrollo y las capacidades actuales de la IA la convierten sin lugar a dudas en la herramienta más innovadora desde la creación de internet, esta como cualquier herramienta, ofrece múltiples ventajas tanto en el ámbito empresarial como persona, sin embargo su uso debe ser cuidadosamente evaluado, en especial cuando involucra decisiones que requieren de análisis y juicio experto, empatía o creatividad, en el informe
Estado de la IA de 2024 los encuestados reportaron a la inexactitud como el mayor riesgo reconocido en el uso de la IA generativa y el 23% reportaron consecuencias negativas en sus organizaciones derivadas del mismo.
Si bien los modelos generativos, han mejorado mucho en sus tasas de error en las recientes generaciones, aun son inexactos en sus respuestas, siguen alucinando:

La IA ha demostrado un potencial enorme en nuestras tareas regulares, nos puede ayudar a mejorar nuestros indicadores productivos y de eficiencia, pero no perdamos de vista que actualmente está impulsada más por el marketing y que aun no es una tecnología con la confiabilidad suficiente para dejarla sin supervisión (
La IA ya ha descubierto cómo engañar a los humanos – DW – 13/05/2024). Reconocer su limitaciones y capacidades, evaluar soluciones con una mirada crítica, objetiva y responsable, permite un aprovechar sus puntos fuertes, como cualquier herramienta. Es de tal relevancia la evaluación previa que ya contamos con guías que permiten hacer evaluaciones previas, herramientas como el
Toolkit de Uso Responsable de la IA desarrollado en conjunto con Microsoft o
Los Principios de la IA de Google, nos ayudan en la toma de decisiones en torno al uso de la IA, evitando así caer en la tentación del uso por moda y evitándola en casos donde se puedan materializar los riesgos antes mencionados.
Ser audaz no significa actuar forma imprudente o sin pensar, darnos la oportunidad de profundizar en el conocimiento de aquello que vamos a usar nos da la confianza para enfrentar desafíos, tomar decisiones difíciles y opinar sin miedo al juicio.
PD: La IA ya nos rodea y acompaña en todas nuestras tareas diarias, si bien no es posible decir que este texto no la uso, puedo asegurar que su contenido es resultado horas de investigación, charlas, lectura y videos, y más de un 99.5% escrito por mi 😊
@ianturo