GPT‑OSS y AMD: la dupla que abre la IA a todos

AI para Recursos Humanos: El Futuro del TalentoBy 3L3C

GPT‑OSS y AMD permiten a las aseguradoras españolas ejecutar IA generativa potente en su propio hardware, con pesos abiertos, menos dependencia de APIs y mejor control del dato.

GPT‑OSSAMD InstinctIA generativa en seguroshardware para IARyzen AIRadeon AI PROMixture‑of‑Experts
Share:

Featured image for GPT‑OSS y AMD: la dupla que abre la IA a todos

GPT‑OSS y AMD: la dupla que abre la IA a todos

En menos de un año, el tamaño de los modelos de lenguaje abiertos ha pasado de 8.000 millones de parámetros a los 120.000 millones de GPT‑OSS… y aun así hoy puedes ejecutarlo en una sola GPU de AMD. Esa es la señal clara de por dónde va el mercado: más potencia, menos fricción y mucha más apertura.

En España, donde el sector asegurador está viviendo una transformación fuerte hacia la IA generativa para seguros, este movimiento es clave. Hasta ahora, muchos proyectos dependían por completo de APIs cerradas, con datos sensibles viajando fuera de la organización. Con GPT‑OSS optimizado para AMD, el guion cambia: modelos avanzados, pesos abiertos y posibilidad real de ejecutarlos en tu propio hardware.

Este avance no solo va de chips y parámetros. Va de quién controla el riesgo, el dato y el coste de la IA. Y ahí, para una aseguradora española o una insurtech que compite en márgenes ajustados, la diferencia es enorme.


Qué es GPT‑OSS y por qué importa para el sector seguros

GPT‑OSS es una familia de modelos de lenguaje de código abierto de OpenAI, liberados con licencia Apache 2.0 y, lo más importante, con acceso completo a los pesos del modelo.

Eso implica tres cosas muy prácticas:

  1. Transparencia: puedes auditar cómo se comporta el modelo y validar sesgos, algo importante para la supervisión de la DGSFP y el cumplimiento normativo.
  2. Personalización profunda: puedes afinar (fine‑tuning) el modelo con datos propios de pólizas, siniestros, tarificación o contacto con cliente.
  3. Despliegue donde tú quieras: desde tu CPD on‑premise hasta un portátil potente en el departamento de Analítica.

GPT‑OSS viene en dos tamaños clave:

  • GPT‑OSS‑120B: modelo de 120.000 millones de parámetros, orientado a tareas de razonamiento complejo y casos de uso exigentes.
  • GPT‑OSS‑20B: versión más ligera de 20.000 millones de parámetros, muy útil para pilotos rápidos y despliegues en hardware más accesible.

A nivel técnico, combina Mixture‑of‑Experts (MoE), atención densa y dispersa alternada y atención multi‑consulta agrupada. Traducido: gestiona contextos largos (hasta 128.000 tokens) sin disparar de forma absurda el consumo de cómputo. Para un seguro, eso significa poder procesar en una sola consulta un contrato completo, anexos, historial de comunicaciones y normativa aplicable.


El rol de AMD: IA abierta que no se queda en el laboratorio

La clave del anuncio no es solo el modelo, sino el ecosistema que lo hace utilizable en la vida real. Ahí entra AMD.

AMD ha sido socio “Day 0” de GPT‑OSS, lo que significa que el modelo se ha diseñado desde el principio pensando en funcionar de forma eficiente sobre:

  • Aceleradores AMD Instinct MI300X / MI355X para centros de datos.
  • GPUs AMD Radeon AI PRO para estaciones de trabajo profesionales.
  • Procesadores AMD Ryzen AI para PCs de consumo y portátiles corporativos.

Además, AMD ha puesto a disposición:

  • Implementaciones de referencia para inferencia con vLLM.
  • Recetas para ajuste fino con PyTorch/PEFT (LoRA).
  • Integración con ONNX Runtime en el lado cliente.

La consecuencia es clara: no hay que empezar de cero. Un departamento de innovación o de datos en una aseguradora puede:

  1. Descargar el modelo GPT‑OSS.
  2. Cargarlo en hardware AMD soportado.
  3. Afinarlo con datos propios de seguros utilizando herramientas estándar.
  4. Ponerlo en producción con un coste mucho más controlado.

Y, algo importante para España: esta aproximación evita encierros en ecosistemas propietarios. No dependes de una única nube ni de una sola API. Puedes combinar on‑premise, nube pública y entornos híbridos según las exigencias de seguridad y el impacto en solvencia que defina tu área de Riesgos.


Hardware AMD optimizado para modelos gigantes

La pregunta que muchos equipos técnicos se hacen es sencilla: ¿de verdad puedo mover un 120B sin montar un súper clúster? Con AMD, la respuesta empieza a ser sí.

Aceleradores AMD Instinct para CPD

Los AMD Instinct MI300X y MI355X están diseñados para cargas de IA de gran escala:

  • 80 GB de memoria por GPU, suficientes para alojar GPT‑OSS‑120B completo.
  • Ancho de banda de memoria masivo, que reduce cuellos de botella en inferencia y entrenamiento.
  • Núcleos optimizados mediante AMD ROCm y Triton, lo que mejora el rendimiento sin obligarte a reescribir todo el código.

Para una gran aseguradora española con CPD propio, esto significa que puede desplegar un modelo de 120B en una sola GPU, algo impensable hace poco tiempo, y:

  • Servir asistentes internos para mediadores y peritos.
  • Automatizar la lectura de informes médicos y periciales.
  • Crear copilotos para suscriptores y actuarios.

GPUs Radeon AI PRO para equipos de datos

En un entorno de análisis y desarrollo, las AMD Radeon AI PRO R9700 son especialmente interesantes:

  • 32 GB de memoria GDDR6.
  • 640 GB/s de ancho de banda.

Son ideales para el modelo GPT‑OSS‑20B, suficiente para:

  • Prototipos de chatbots de atención al cliente.
  • Motores de extracción de información de pólizas en PDF.
  • Clasificación y resumen de siniestros.

Una simple configuración multi‑GPU escala en memoria y rendimiento, permitiendo a un pequeño equipo de data scientists trabajar sin depender constantemente de la nube.

Ryzen AI para el lado cliente

En el lado del usuario final, los AMD Ryzen AI permiten ejecutar GPT‑OSS‑20B de forma local en portátiles y sobremesas:

  • Integración con ONNX Runtime y herramientas nativas de Windows.
  • Escenarios de inferencia offline, muy útiles para comerciales y mediadores que trabajan fuera de la oficina.

Esto abre un uso muy potente: asistentes específicos de seguros ejecutándose directamente en el portátil del mediador, con:

  • Guías de venta basadas en perfil de cliente.
  • Explicaciones adaptadas a nivel de comprensión.
  • Recomendaciones sobre próximos mejores productos (next‑best‑offer) sin enviar datos sensibles fuera de la red corporativa.

Escalar hasta 120B sin disparar costes ni consumo

Llegar a 120.000 millones de parámetros sin que el modelo resulte inutilizable ha requerido decisiones técnicas muy concretas.

Mixture‑of‑Experts para pagar solo lo que usas

GPT‑OSS utiliza arquitectura Mixture‑of‑Experts (MoE). En la práctica:

  • El modelo tiene muchos “expertos”, pero solo activa una fracción en cada token.
  • En GPT‑OSS‑120B se activan unos 5.100 millones de parámetros por token, no los 120.000 millones.

Esto permite tener la capacidad de un modelo enorme, pero con un coste computacional más cercano a modelos bastante más pequeños. Para una aseguradora, se traduce en mejor razonamiento en casos complejos (fraude, tarificación avanzada, siniestros atípicos) sin que la factura energética se dispare.

Atención optimizada y cuantización MXFP4

El modelo alterna atención densa y dispersa y emplea atención multi‑consulta agrupada, lo que hace viable trabajar con ventanas de contexto de hasta 128.000 tokens.

Además, GPT‑OSS se beneficia de:

  • Cuantización MXFP4, reduciendo el tamaño de los parámetros.
  • Núcleos optimizados en la pila AMD ROCm.

La combinación permite que incluso el modelo de 120B quepa y funcione en una única GPU de 80 GB, con latencias aceptables para muchos casos de uso de backoffice: scoring de siniestros, revisión automática de documentación, detección de incoherencias en declaraciones, etc.


Democracia de la IA: menos dependencia de APIs cerradas

La verdadera fuerza de GPT‑OSS no es solo que sea potente, sino que sea abierto y utilizable comercialmente.

Licencia Apache 2.0: vía libre al uso empresarial

La licencia Apache 2.0 permite:

  • Uso comercial sin royalties.
  • Modificación y redistribución.
  • Integración en productos propios.

Para una aseguradora o insurtech española, esto significa que puede construir:

  • Su propio asistente de suscripción.
  • Sus propias herramientas de IA para peritos y tramitadores.
  • Su motor interno de conocimiento sobre productos y normativa.

Todo ello sin depender del roadmap ni de los cambios de precios de una API externa.

Pesos accesibles: auditar, ajustar, gobernar

Tener acceso a los pesos del modelo cambia radicalmente la conversación sobre gobernanza de la IA:

  • Puedes auditar el modelo con tus equipos de Riesgos y Cumplimiento.
  • Puedes detectar sesgos en segmentos de clientes concretos (por ejemplo, edad, código postal, perfil socioeconómico).
  • Puedes demostrar trazabilidad y control frente a supervisores.

En un contexto regulatorio europeo con IA Act, este nivel de control no es un lujo: es una condición para desplegar modelos de IA generativa en procesos críticos del negocio asegurador.


Sostenibilidad y eficiencia: IA que no rompe la factura eléctrica

Cada vez más consejos de administración piden una cosa muy simple: “Queremos IA, pero no queremos reventar ni el presupuesto ni los objetivos ESG”.

GPT‑OSS y el hardware de AMD atacan este problema desde varias capas:

  • Arquitectura MoE: menos parámetros activos por token → menos cómputo → menos energía.
  • Atención alterna y cuantización: menos operaciones innecesarias.
  • Ejecución en una sola GPU: se reducen los clústeres masivos multi‑GPU y, con ellos, la huella de carbono.

En hardware AMD:

  • Los núcleos están optimizados vía ROCm para sacar más rendimiento por vatio.
  • El elevado ancho de banda de memoria reduce tiempos de ejecución.

Para un proyecto de IA generativa en seguros, esto se traduce en TCO más bajo y mejor encaje con los compromisos de sostenibilidad que muchas aseguradoras españolas ya reportan en sus memorias anuales.


Cómo puede aprovechar esto una aseguradora en España

Bajando a tierra, ¿qué puede hacer una compañía de seguros o una insurtech con GPT‑OSS sobre AMD en los próximos 6‑12 meses?

1. Laboratorio de IA propia con datos reales

  • Montar un entorno con Radeon AI PRO o Instinct.
  • Cargar GPT‑OSS‑20B para pruebas y PoC.
  • Afinar el modelo con:
    • Históricos de siniestros anonimizados.
    • FAQs reales de clientes.
    • Textos de pólizas propias.

Objetivo: validar mejoras en productividad de tramitadores, tiempos de respuesta y calidad de la comunicación.

2. Asistente interno para mediadores y red comercial

Con Ryzen AI en portátiles corporativos:

  • Crear un asistente que explique coberturas “en cristiano”.
  • Sugerir productos compatibles con el perfil del cliente.
  • Generar resúmenes personalizados de pólizas para enviar por email.

Todo esto ejecutado localmente, con menor riesgo de fuga de información.

3. Automatización de lectura y validación documental

Usando GPT‑OSS‑120B sobre Instinct MI300X:

  • Extraer campos clave de pólizas antiguas o escaneadas.
  • Detectar incoherencias entre condiciones generales y particulares.
  • Resumir informes médicos o de taller para acelerar el pago de siniestros.

4. Política de IA responsable y gobernanza

Aprovechando que los pesos son abiertos:

  • Definir un marco de evaluación de sesgos y calidad.
  • Documentar cómo se entrena y afina el modelo.
  • Preparar evidencias para auditorías internas y regulatorias.

Las compañías que se adelanten aquí no solo reducirán riesgo; también ganarán ventaja competitiva frente a un cliente que ya empieza a comparar experiencias de servicio basadas en IA entre entidades.


Mirando a 2026: IA generativa aseguradora, pero en casa

La tendencia es clara: modelos cada vez más grandes, pero con despliegues cada vez más cercanos al negocio. GPT‑OSS y AMD encajan justo en ese punto: potencia de primer nivel, pesos abiertos y hardware que puedes instalar en tu CPD, en tu oficina o en el portátil de tu responsable comercial.

Para el mercado español de seguros, esto abre una ventana muy concreta: pasar de “usar IA de otros” a “tener tu propia IA aseguradora”, entrenada con tu histórico, tus procesos y tus criterios de riesgo.

El siguiente paso es estratégico, no técnico: decidir dónde quieres que esté el cerebro de tu compañía en 2‑3 años.

Si tu IA vive solo en APIs externas, el control siempre será limitado. Si das el salto a modelos abiertos como GPT‑OSS sobre hardware AMD, con una hoja de ruta clara, puedes empezar a construir activos de IA que se queden en casa y que crezcan contigo.

La tecnología ya está lista. La cuestión ahora es quién se atreve a mover ficha antes que el resto del sector.

🇪🇸 GPT‑OSS y AMD: la dupla que abre la IA a todos - Spain | 3L3C