El estado de la IA en 2024

Tomando como base el AI Index report 2024 publicado por el Instituto Stanford para la Inteligencia Artificial Centrada en el Humano (HAI)  desgloso los que parecen ser los principales avances y preocupaciones. Dentro de las tendencias significativas que destaca en el campo de la IA se centra en notable aumento en la inversión en IA generativa y el predominio continuado de la industria en la investigación de IA avanzada. Los costes de entrenamiento de los modelos de vanguardia han alcanzado niveles sin precedentes, con Estados Unidos liderando en el desarrollo de modelos de IA.
El informe también señala crecientes preocupaciones sobre la responsabilidad en IA, particularmente en torno a los deepfakes políticos y la falta de evaluaciones estandarizadas para los modelos de lenguaje grandes.
A nivel regulatorio, se observa un aumento significativo en las regulaciones de IA, especialmente en Europa y los EE. UU., mientras que la opinión pública muestra una mayor conciencia y nerviosismo hacia la IA. Además, la IA está impulsando avances notables en ciencia y medicina, lo que refleja su impacto transformador y los desafíos emergentes asociados con su integración en la sociedad.

  1. Aumento de la inversión en IA generativa
    • La inversión corporativa en IA generativa ha aumentado significativamente aunque de momento la mayor parte de esta inversión se concentra en Estados Unidos. Esto refleja un creciente interés y respuesta a las capacidades y riesgos de la IA generativa. 
    • La integración de IA ha llevado a una reducción de costes y un aumento de ingresos en muchas empresas. Esto muestra que la IA no es solo una moda pasajera sino una herramienta empresarial valiosa. A pesar de la disminución general en la inversión privada en IA, la financiación para la IA generativa ha visto un aumento notable, reflejando un interés creciente en esta área.
    • Estados Unidos lidera en lanzamiento de modelos básicos y en avances técnicos mientras China lidera en patentes de IA y en la instalación de robots industriales.
    • El entrenamiento de modelos grandes es muy costoso y aunque no se están detallando los costes exactos parecen ser muy significativos.
    • Tenemos inversiones históricas como la de Amazon con 4 millones de dólares en el competidor de OpenAI, Anthropic.
  2. La carrera de los modelos
    • Parece que a pesar de todas las especulaciones es Google en la carrera por el modelo básico. Son quienes han lanzado la mayor cantidad de modelos básicos en 2023. 
    • Los grandes recursos necesarios para entrenar estos modelos han llevado a que la industria domine sobre el ámbito académico.
    • Se advierte preferencia por modelos cerrados sobre modelos abiertos, hay un debate sobre si los modelos básicos deben ser abiertos o cerrados aunque de momento los modelos cerrados están superando a los abiertos en rendimiento según varios benchmarks.
  3. Significativa huella de carbono de los modelos grandes
    • Los modelos de IA grandes tienen una huella de carbono considerable. Las variaciones se deben a factores como el tamaño del modelo y la eficiencia energética del centro de datos.
  4. Avances en diversidad
    • Hay un aumento en el número de estudiantes mujeres y no blancos en campos relacionados con la IA. Aunque hay avances, aún queda mucho trabajo por hacer en términos de diversidad en IA.
  5. Percepción de riesgos relacionados con la IA
    • Las corporaciones son conscientes de los riesgos como la privacidad y la gobernanza de datos y en esta línea hay un esfuerzo por implementar prácticas responsables de IA.
    • Los sistemas de IA han superado a los humanos en muchas tareas y el rendimiento sigue mejorando rápidamente. Pero afortunadamente aún hay tareas cognitivas complejas donde los humanos superan a la IA.
  6. Desarrollo de normas de responsabilidad de IA y leyes de la IA.
    • Hay un enfoque creciente en evaluar modelos de IA contra benchmarks de responsabilidad. Esto está cambiando la forma en que los desarrolladores prueban y comparan modelos. Hay una falta significativa de evaluaciones estandarizadas para la responsabilidad de los modelos de lenguaje grandes (LLM), y los deepfakes están planteando desafíos nuevos en términos de detección y gestión.
    • Varios países han aprobado leyes relacionadas con la IA, con una tendencia hacia la restricción, ellas podrán tanto impulsar como limitar el desarrollo de la IA.
    • Europa ya tiene en marcha su legislación en este sentido. La Unión Europea aprobó la Ley de Inteligencia Artificial, la primera de su tipo en el mundo. Esta regulación busca establecer normas para el uso ético y seguro de la IA. Se espera que otros países sigan su ejemplo y promulguen leyes similares.
  7. Opinión pública sobre la IA
      • La mayoría de las personas están nerviosas respecto a la IA y esperan que cambie significativamente sus vidas. Hay diferencias en la percepción de la IA entre diferentes grupos demográficos y regiones.

        Para este artículo me he ayudado de la IA, en este caso concreto del análisis del documento con ChatGPT4. Quería revisar realmente cómo es de eficiente su gestión documental y estas son algunas de las cosas que he descubierto:

        • Tiene limitación de texto al evaluar el documento, aunque piensas que está leyendo la totalidad no lo hace, así que cuidado con dar por sentado que te te está ayudando con todo.
        • Tiende a sintetizar en exceso, he llegado incluso a pensar que se hace "vaga" con el tiempo.
        • Cuando le interrogas sobre una parte en concreto se pierde un poco y con esa obsesión que le han marcado por responder termina contestando lo mismo, pero redactado de otra forma.
        • Es una buena ayuda para sintetizar los puntos clave, pero al final hace falta nuestra capacidad humana para extraer el valor. 
        • Y por supuesto no hay insights basados en la experiencia y el contexto, aquí seguimos aportando más.
        • También alucina un poco cuando llevas un rato preguntando, es inevitable me temo.