‎
loginstudio
  • Overview
  • COMIENZA
    • Quickstart
  • Basicos
    • Modelos Disponibles
    • TEXT API (NEW)
    • TEXT API (ACTUAL)
    • Formas de pago
  • Mejores prácticas
    • RAG
    • Prompteo
  • Saptiva Agents
    • Introducción
    • Instalación
    • Quick Start
    • Tutorial
      • Modelos
      • Mensajes
      • Agentes
      • Equipos
      • Human-in-the-Loop
      • Terminación
      • Manejo De Estados
    • Avanzado
      • Agentes Personalizados
      • Selector Group Chat
      • Memoria
      • Logging
      • Serialización
    • Conceptos Del Núcleo
      • Quick Start
      • Aplicaciones De Agentes & Multi-Agentes
      • Entornos De Ejecución Para Agentes
      • Pila De Aplicación
      • Identidad & Ciclo De Vida Del Agente
      • Tema & Suscripción (Topic & Subscription)
    • Guía De Framework
      • Agente & Entorno De Ejecución De Agentes
      • Mensaje & Comunicación
      • Open Telemetry
    • Guía De Componentes
      • Cliente De Modelo
      • Contexto De Modelo
      • Herramientas (Tools)
    • Patrones De Diseño Multi-Agente
      • Agentes Concurrentes
      • Flujo de Trabajo Secuencial
      • Transferencia De Tareas (Handoffs)
      • Mezcla De Agentes (Mixture Of Agents)
      • Multi-Agent Debate
      • Reflexión (Reflection)
    • Ejemplos
      • Planificación De Viajes
      • Investigación De Empresas
      • Revisión De Literatura
    • PyPi
  • Manuales
  • Model cards
    • Quickstart
      • Model Card: DeepSeek R1 Lite
      • Model Card: LLAMA3.3 70B
      • Model Card: Saptiva Turbo
      • Model Card: Phi 4
      • Model Card: Qwen
      • Model Card: Gemma 3
  • DEFINICIONES
    • Temperature
Con tecnología de GitBook
En esta página
  • Descripción general de los modelos
  • Saptiva Turbo
  • DeepSeek R1 Lite
  • LLAMA3.3 70B
  • Qwen
  • Phi 4
  • Gemma 3
  1. Basicos

Modelos Disponibles

AnteriorQuickstartSiguienteTEXT API (NEW)

Última actualización hace 1 mes

La API de SAPTIVA ofrece una amplia variedad de modelos diseñados para satisfacer diferentes necesidades y presupuestos. Además, tienes la posibilidad de personalizar estos modelos para casos de uso específicos, optimizando su desempeño mediante técnicas avanzadas de ajuste y configuración personalizada.

Descripción general de los modelos

Saptiva Turbo

Saptiva Turbo es un modelo de lenguaje de última generación diseñado específicamente para ofrecer respuestas rápidas y precisas en tiempo real. Este modelo destaca por su velocidad de procesamiento, lo que lo convierte en una excelente opción para aplicaciones que requieren interacción fluida, como chatbots, asistentes virtuales y sistemas de atención al cliente. Además, Saptiva Turbo está optimizado para manejar grandes volúmenes de datos sin comprometer la calidad de las respuestas, adaptándose a diversos escenarios conversacionales.

DeepSeek R1 Lite

Modelo de lenguaje avanzado optimizado para tareas de razonamiento, matemáticas y generación de código. Su arquitectura se basa en el entrenamiento con aprendizaje por refuerzo (RL), lo que le permite desarrollar capacidades emergentes como la verificación automática, la reflexión y el razonamiento de múltiples pasos. DeepSeek-R1 supera a modelos comparables en múltiples evaluaciones, alcanzando un desempeño equiparable a OpenAI-o1 en diversos ámbitos. Para potenciar la accesibilidad y la investigación, también se han desarrollado versiones más ligeras mediante técnicas de destilación, permitiendo obtener modelos eficientes sin comprometer la calidad del razonamiento.

LLAMA3.3 70B

Llama 3.3-70B es un modelo de lenguaje avanzado diseñado para ofrecer respuestas precisas y contextualmente relevantes en múltiples idiomas. Optimizado para tareas de asistencia conversacional, este modelo se destaca por su capacidad de procesar grandes volúmenes de datos con una arquitectura eficiente que prioriza la fluidez y coherencia en las interacciones. Gracias a su entrenamiento con técnicas de alineación como RLHF y SFT, Llama 3.3-70B proporciona respuestas ajustadas a las necesidades del usuario, convirtiéndose en una opción ideal para chatbots, asistentes virtuales y aplicaciones de generación de texto a gran escala.

Qwen

Qwen es un modelo de lenguaje de alto rendimiento desarrollado para ofrecer respuestas precisas y contextualmente relevantes en una amplia variedad de dominios. Con una arquitectura optimizada para el razonamiento complejo, la generación de código y la comprensión avanzada del lenguaje natural, Qwen 2.0 destaca por su capacidad de adaptarse a tareas especializadas con alta eficiencia. Su entrenamiento incorpora técnicas de alineación avanzadas como RLHF y SFT, permitiéndole mejorar la coherencia y precisión en interacciones prolongadas. Diseñado para aplicaciones conversacionales, asistentes inteligentes y análisis de datos, Qwen 2.0 es una opción ideal para entornos que requieren inteligencia artificial de última generación.

Phi 4

Phi-4 es un modelo de lenguaje compacto y eficiente, diseñado para ofrecer un alto rendimiento en tareas de generación de texto, razonamiento y asistencia conversacional. A pesar de su tamaño optimizado, Phi-4 logra resultados comparables a modelos de mayor escala gracias a un entrenamiento basado en datos de alta calidad y técnicas avanzadas de alineación. Su arquitectura lo convierte en una opción ideal para aplicaciones que requieren modelos ligeros pero potentes, desde chatbots hasta asistentes de codificación y generación de contenido. Phi-4 equilibra eficiencia y precisión, proporcionando respuestas coherentes y adaptadas al contexto con un consumo reducido de recursos computacionales.

Gemma 3

Gemma 3 es un modelo de lenguaje de alto rendimiento diseñado para ofrecer respuestas precisas y contextualmente relevantes en diversos escenarios de conversación. Su arquitectura optimizada permite un procesamiento eficiente del lenguaje natural, destacando en tareas de generación de texto, asistencia conversacional y análisis de datos. Gracias a su entrenamiento con técnicas avanzadas de alineación como RLHF y SFT, Gemma 3 garantiza interacciones fluidas y coherentes, adaptándose a las necesidades del usuario en tiempo real. Su equilibrio entre eficiencia y capacidad de razonamiento lo convierte en una excelente opción para chatbots, asistentes virtuales y sistemas de generación de contenido a gran escala.

Model Card: Saptiva Turbo
Model Card: DeepSeek R1 Lite
Model Card: LLAMA3.3 70B
Model Card: Qwen
Model Card: Phi 4
Model Card: Gemma 3