
Descubre cómo DeepL usó FP8 para entrenar e inferir en los LLM de última generación, aumentando su rendimiento y calidad. Explora nuestra trayectoria con la tecnología de NVIDIA, que ha permitido acelerar el entrenamiento y obtener traducciones mejores.

Explora el Protocolo de Contexto de Modelos (MCP) y su impacto en la IA desde 2024, cómo permite a los agentes IA acceder a herramientas reales y crear tu servidor MCP en 10 líneas de código.