A poco más de un año de una saturación informativa (casi siempre exagerada y desinformada) en torno a la Inteligencia Artificial o IA, es hora de pasar de la conversación a la implementación. Hay ya incontables oportunidades para formarse gratuitamente en las habilidades básicas, así que llego el momento de aplicarlas.
Si aún no conocemos los fundamentos de la IA, basta con cruzarse por Coursera, edX o Platzi para tomar cursos gratuitos que nos permiten entender el contexto general; incluso hay currículos especializados áreas del conocimiento, como nuestra “Introducción a la Inteligencia Artificial para Bibliotecari@s” que sigue vigente, libre y abierta para todos desde www.iaparabibliotecas.com (con una sesión inicial apta para cualquier profesión y nivel académico).
En este artículo daremos un repaso rápido por la IA en 2023, junto a lo que nos trae 2024 como bases para proponer algunas dinámicas clave en su implementación ¡bienvenidos a IAsí se ve la Inteligencia!
2023: Despertar entre las sombras de la IA Generativa
2023 fue fundamental para la Inteligencia Artificial (IA), marcando un año de transformación significativa y rápidos avances. La integración de la IA Generativa (GenAI) en diversas funciones empresariales señala un cambio hacia operaciones más innovadoras y eficientes, aunque con retos emergentes relativos a la precisión, la ciberseguridad y el cumplimiento de la normativa. Las organizaciones líderes (OpenAI/Microsoft, Anthropic/Amazon, Google, Meta, ElevenLabs, Runway ML, Stability, Perplexity…) están aprovechando la IA no sólo para ayudar a reducir costes, sino como un componente fundamental del desarrollo de productos y servicios, haciendo hincapié en la creación de nuevos negocios y mejorando el valor de las ofertas existentes. Estas entidades están invirtiendo significativamente en IA, integrándola en múltiples funciones empresariales, lo que demuestra la importancia estratégica de la IA para impulsar la ventaja competitiva y la excelencia operativa (https://www.mckinsey.com/capabilities/quantumblack/our-insights/the-state-of-ai-in-2023-generative-AIs-breakout-year).
La presentación de GPT-4 subrayó el papel preponderante de la potencia de cálculo, comparándola con el nuevo petróleo que alimenta la rápida evolución de la IA. Sin embargo, crece la preocupación por el consumo de energía y las emisiones de carbono derivadas del entrenamiento de modelos masivos (https://www.stateof.ai/).
El Hype Cycle de Gartner para la IA en 2023 identifica la IA generativa y la inteligencia para la toma de decisiones como innovaciones preparadas para su adopción generalizada en los próximos años. Esto refleja el potencial de la IA para revolucionar las empresas, si se despliega de forma responsable y eficaz (https://www.gartner.com/en/articles/what-s-new-in-artificial-intelligence-from-the-2023-gartner-hype-cycle).
Desde la aceleración de los descubrimientos científicos hasta el planteamiento de dilemas éticos, la IA muestra su doble filo como poderosa herramienta de avance y como tema de debate sobre sus implicaciones en la sociedad. Con los modelos de IA contribuyendo a los grandes avances de la ciencia y la tecnología, el discurso en torno a la imparcialidad, los prejuicios y la ética gana protagonismo, reflejando la compleja interacción entre la innovación tecnológica y las normas sociales (https://aiindex.stanford.edu/report/).
2024: Navegando la incertidumbre en la Era de la IA
En las últimas semanas hemos visto surgir herramientas que continúan cuestionando nuestra capacidad para discernir entre lo real y lo generado digitalmente, como el creador de video Sora de OpenAI (https://openai.com/sora). La incertidumbre es, como lo era ya el cambio, una nueva constante para las sociedades humanas en 2024: ¿qué es entonces lo que sí sabemos que vendrá? ¿qué nos ha traído ya la incertidumbre?
¿La realización de lo que el marketing prometió?
El bombo publicitario de la IA que alcanzó nuevas cotas en 2023 se enfrenta a una comprobación de la realidad. Se prevé que las empresas evalúen los beneficios reales de las herramientas de IA frente a sus costes y riesgos, lo que podría conducir a una retracción de las implantaciones prematuras o exageradas de IA. Esta reevaluación también puede desencadenar acciones legales y reglamentarias contra los proveedores de servicios de IA que no cumplan sus promesas (https://techcrunch.com/2023/12/19/8-predictions-for-ai-in-2024/).
La entrada de Apple en la IA: SiriX
Apple está a punto de hacer una gran incursión en la IA, una nueva generación de su iPhone centrada en mejorar la asistencia digital personal (Siri) a través de los datos y evitando al mismo tiempo la generación de textos, imágenes o medios riesgosos para la privacidad.
Una IA Generativa entrenada con tus propios datos
La IA generativa (GenAI) extenderá su influencia más allá de las aplicaciones creativas, convirtiéndose en parte integrante de la estrategia de contenidos y el diseño de productos o servicios. Las mejoras en la Generación Aumentada de Recuperación (RAG, una técnica para usar datos propios en el “re-entrenamiento” de IA) permitirán obtener resultados más precisos y matizados contextualmente, usando grandes cantidades de información propia para afinar o reentrenar modelos de IA (https://www.veritas.com/blogs/ai-in-2024-10-predictions-shaping-our-future). Ya hemos visto el lanzamiento de una versión paga de Gemini, la IA fundacional de Google, que promete aprender y adaptarse con los contenidos de nuestro Google Drive (https://gemini.google.com/advanced).
Desinformación generada por IA
La desinformación generada por la IA, especialmente en el contexto de las elecciones, está llamada a convertirse en un reto importante. Se espera que la facilidad para crear falsificaciones profundas (Deep Fakes) y la proliferación de la desinformación compliquen el panorama político y el ecosistema de la información en general (https://www.technologyreview.com/2024/01/04/1086046/whats-next-for-ai-in-2024/). Ya hemos visto algunas iniciativas mixtas, de gobierno e industria, para combatir la desinformación en el contexto electoral de 2024 como el AI Elections Accord https://www.aielectionsaccord.com/.
Comercio e innovaciones en seguridad
En el comercio minorista, los asesores de compras virtuales (impulsados por GenAI) ofrecerán experiencias de compra personalizadas, mientras que los sistemas de seguridad impulsados por IA mejorarán la seguridad en las tiendas. Esta doble aplicación subraya el papel de la IA en la optimización del compromiso con el cliente y la seguridad operativa (https://blogs.nvidia.com/blog/2024-ai-predictions/).
Digitalización industrial e IA
La fusión de la digitalización industrial con la GenAI está llamada a acelerar la transformación industrial, especialmente en el campo de la robótica durante 2024. Esto facilitará la conversión de atributos físicos en datos digitales en ambos sentidos, mejorando así el diseño de productos, la fabricación, la formación virtual y la seguridad de los trabajadores. Ya vemos iniciativas donde se integran los LLM (grades modelos de lenguaje) con robots para explorar las posibilidades en diversas industrias (https://www.scientificamerican.com/article/scientists-are-putting-chatgpt-brains-inside-robot-bodies-what-could-possibly-go-wrong/)
Panorama jurídico y de cumplimiento
Se prevé que el panorama jurídico y normativo que rodea a la IA se convierta en campo de batalla, con debates sobre el uso justo, los derechos de autor y la responsabilidad civil calentándose junto a los esfuerzos por regular los grandes modelos lingüísticos y los casos de uso específicos (https://www2.deloitte.com/us/en/pages/technology/articles/ai-predictions-for-2024.html). Esto representa una oportunidad para la sociedad civil de entrar en la conversación y enriquecer el debate en torno a los derechos humanos y la tecnología (abordado ya por organizaciones de impacto regional como la Fundación Karisma en https://web.karisma.org.co/lanzamos-mi-pequeno-glosario-de-derechos-humanos-y-tecnologia/)
Retos e innovaciones en el motor de la IA: los chips
Una posible escasez mundial de GPU (Procesadores gráficos especializados), cruciales para las operaciones de IA, acelerará la innovación en el desarrollo de hardware, impulsando los esfuerzos para encontrar alternativas de bajo consumo y rentables a las actuales GPU (https://hai.stanford.edu/news/what-expect-ai-2024). Google, Meta (Facebook) e Intel ya están en etapas avanzadas para el desarrollo de GPU que rivalicen con las líderes indiscutibles del mercado: las H100 de Nvidia. Iniciativas innovadoras como Groq, que han rediseñado completamente los procesadores para acelerar la interacción con Chatbots hasta en 1000x, empiezan a surgir en el mercado y ya podemos comprobar sus resultados (https://groq.com/).
Mitos y realidades: sin apocalipsis a la vista
En contra de las predicciones catastrofistas, no se espera que la IA acabe con todos los puestos de trabajo ni con la civilización. Por el contrario, seguirá ayudando a las organizaciones que la adopten responsablemente en la toma de mejores decisiones, lo que pone de relieve el papel de la IA como herramienta de mejora y no de desplazamiento (https://www.sas.com/en_us/news/press-releases/2023/november/ai-predictions-2024.html).
Estas predicciones para 2024 subrayan la naturaleza dinámica del desarrollo de la IA y su creciente impacto en diversos sectores. A medida que la IA sigue evolucionando, las empresas, los responsables políticos y los individuos por igual deben navegar por estos cambios con un enfoque crítico e informado, equilibrando la innovación con las consideraciones éticas y el bienestar de la sociedad. ¿Cómo pasar entonces de la conversación la implementación de la Inteligencia Artificial en 2024?
Principios para una implementación consciente de la IA en 2024
El uso consciente de la Inteligencia Artificial (IA) implica integrar directrices éticas, equidad, inclusividad y seguridad en el desarrollo y despliegue de las tecnologías de IA. Este enfoque es vital en todos los sectores, incluidos los negocios, la educación, la cultura, la sanidad y el desarrollo tecnológico.
Diseño ético y equidad
● Compromiso con expertos diversos: Es cada vez más crucial implicar a científicos sociales y humanos, especialistas en ética y otros expertos relevantes en el proceso de desarrollo de la IA para garantizar que se tienen en cuenta diversas perspectivas. Esto ayuda a diseñar modelos de IA que sean justos e inclusivos, teniendo en cuenta los impactos en los diferentes grupos de usuarios y comunidades (https://ai.google/responsibility/responsible-ai-practices/).
● Conjuntos de datos diversos y representativos: Aplicar la infodiversidad en el entrenamiento, la afinación y las pruebas de modelos de IA es fundamental para evitar sesgos. La equidad en la IA requiere una evaluación continua de la representación de los datos y la mitigación de los sesgos discriminatorios.
Colaboración interdisciplinar en la implementación
La implementación de la IA debe considerarse un reto tan humano como tecnológico, que requiere ecosistemas de colaboración que incluyan a desarrolladores de IA, científicos sociales y humanos, diseñadores de experiencia de usuario (UX), abogados, especialistas en ética, líderes empresariales y usuarios. Este enfoque colaborativo garantiza un despliegue responsable de las tecnologías de IA (https://www.bcg.com/capabilities/artificial-intelligence/ai-for-business-society-individuals/responsible-ai), en donde se ponen sobre la mesa preguntas clave:
- Cuáles son los procesos con mayor esfuerzo cognitivo en la organización.
- Entre esos procesos, cuáles tienen un menor retorno emocional para el equipo (satisfacción en su realización).
- Qué Inteligencias Artificiales pueden ayudar a semi o automatizar esos procesos.
- Cuáles son las implicaciones éticas, legales y reputacionales del uso de esas IA.
- Cuáles habilidades blandas debo potenciar en el equipo antes del uso de IA.
- Cómo entrenar al equipo en el uso de esas IA.
- De qué manera se medirá el éxito de esa implementación y cómo se promoverá el aprendizaje continuo.
Creación de un marco de uso responsable
Un marco sencillo pero eficaz para el uso responsable de la IA incluye la evaluación de los resultados iniciales, la verificación de los hechos y los datos, la edición de las indicaciones para mejorarlas y la revisión de los resultados para garantizar la precisión y la transparencia. En última instancia, la responsabilidad de garantizar que los resultados de la IA cumplen las normas éticas recae en los usuarios finales, organizaciones o personas (https://www.aiforeducation.io/ai-resources/how-to-use-ai-responsibly-every-time).
Gestión de nuevos riesgos organizacionales
Con el avance de la IA generativa, surgen nuevos riesgos, incluidos los de ciberseguridad, privacidad, legales, de rendimiento, de sesgo y de propiedad intelectual. Para sortearlos, es esencial que los altos ejecutivos conozcan a fondo las prácticas responsables de la IA (https://www.pwc.com/us/en/tech-effect/ai-analytics/responsible-ai-for-generative-ai.html). ¿Estamos preparando a los directivos mientras formamos al equipo en su implementación?
Consideraciones específicas para el sector salud
En la atención sanitaria, el despliegue de la IA exige prestar especial atención a los sesgos, que pueden dar lugar a un trato diferenciado y a resultados perjudiciales para los pacientes. La transparencia en la forma en que se utilizan los datos de los pacientes, junto con estrictas medidas de seguridad, es necesaria para proteger la información sensible y garantizar la salud y privacidad de los pacientes (https://healthitanalytics.com/features/responsible-ai-deployment-in-healthcare-requires-collaboration).
Al adherirse a estos principios y prácticas, las organizaciones pueden aprovechar el poder de la IA de forma que beneficie a la sociedad al tiempo que mitiga los daños potenciales. El uso consciente de la IA no consiste sólo en evitar riesgos, sino también en aprovecharla como una fuerza para el bien, potenciando la equidad y la inclusión y mejorando vidas.
Y tu ¿Qué pasos has dado para una implementación consciente de la IA en tu vida personal y laboral?