‎
loginstudio
  • Overview
  • COMIENZA
    • Quickstart
  • Basicos
    • Modelos Disponibles
    • TEXT API (NEW)
    • TEXT API (ACTUAL)
    • Formas de pago
  • Mejores prácticas
    • RAG
    • Prompteo
  • Saptiva Agents
    • Introducción
    • Instalación
    • Quick Start
    • Tutorial
      • Modelos
      • Mensajes
      • Agentes
      • Equipos
      • Human-in-the-Loop
      • Terminación
      • Manejo De Estados
    • Avanzado
      • Agentes Personalizados
      • Selector Group Chat
      • Memoria
      • Logging
      • Serialización
    • Conceptos Del Núcleo
      • Quick Start
      • Aplicaciones De Agentes & Multi-Agentes
      • Entornos De Ejecución Para Agentes
      • Pila De Aplicación
      • Identidad & Ciclo De Vida Del Agente
      • Tema & Suscripción (Topic & Subscription)
    • Guía De Framework
      • Agente & Entorno De Ejecución De Agentes
      • Mensaje & Comunicación
      • Open Telemetry
    • Guía De Componentes
      • Cliente De Modelo
      • Contexto De Modelo
      • Herramientas (Tools)
    • Patrones De Diseño Multi-Agente
      • Agentes Concurrentes
      • Flujo de Trabajo Secuencial
      • Transferencia De Tareas (Handoffs)
      • Mezcla De Agentes (Mixture Of Agents)
      • Multi-Agent Debate
      • Reflexión (Reflection)
    • Ejemplos
      • Planificación De Viajes
      • Investigación De Empresas
      • Revisión De Literatura
    • PyPi
  • Manuales
  • Model cards
    • Quickstart
      • Model Card: DeepSeek R1 Lite
      • Model Card: LLAMA3.3 70B
      • Model Card: Saptiva Turbo
      • Model Card: Phi 4
      • Model Card: Qwen
      • Model Card: Gemma 3
  • DEFINICIONES
    • Temperature
Con tecnología de GitBook
En esta página
  • Descripción General
  • Uso Previsto
  • Factores y Métricas de Rendimiento
  • Limitaciones y Sesgos
  • Consideraciones Éticas y de Seguridad
  1. Model cards
  2. Quickstart

Model Card: DeepSeek R1 Lite

Descripción General

  • Nombre del Modelo: DeepSeek R1 Lite.

  • Tipo de Modelo: Generación de texto.

  • Desarrollado por: DeepSeek.

  • Tamaño en Parámetros: 70B.

  • Nivel de Cuantificación: Q4 K M.

Uso Previsto

Casos de Uso Recomendados

  • Ideal para desarrollar y probar prototipos de aplicaciones de IA antes de escalar a modelos más grandes.

  • Es especialmente útil para implementaciones en dispositivos o sistemas con restricciones de recursos computacionales, donde modelos más grandes como Llama 3.3 podrían ser demasiado pesados.

  • Es adecuado para implementar chatbots y asistentes virtuales, especialmente en escenarios donde se requiera un modelo más ligero y eficiente en términos de recursos.

Casos de Uso No Recomendados

  • Cualquier uso que viole leyes o regulaciones aplicables, incluyendo leyes de cumplimiento comercial.

  • Usos prohibidos específicamente por:

    • La Política de uso aceptable de Llama 3.3

    • La Licencia comunitaria de Llama 3.3

  • Implementación del modelo de forma aislada sin medidas de seguridad adicionales a nivel de sistema. El modelo debe ser parte de un sistema de IA más amplio con las protecciones necesarias.

  • Cualquier implementación sin realizar previamente:

    • Pruebas de seguridad adaptadas al caso de uso específico

    • Los ajustes necesarios para la aplicación particular

    • La evaluación de riesgos correspondiente

Factores y Métricas de Rendimiento

Datos de Entrenamiento

  • Llama 3.3 se entrenó previamente con aproximadamente 15 billones de tokens de datos de fuentes disponibles públicamente. Los datos de ajuste incluyen conjuntos de datos de instrucciones disponibles públicamente, así como más de 25 millones de ejemplos generados sintéticamente.

    Frescura de los datos: los datos previos al entrenamiento tienen fecha de corte en diciembre de 2023.

Métricas de Evaluación

  • TBD graphic

Limitaciones y Sesgos

Limitaciones Técnicas

Al igual que en el desarrollo de software estándar, los desarrolladores son responsables de la integración de LLM con las herramientas y los servicios de su elección. Deben definir una política clara para su caso de uso y evaluar la integridad de los servicios de terceros que utilizan para conocer las limitaciones de seguridad al utilizar esta capacidad. Consulte la Guía de uso responsable para conocer las mejores prácticas sobre la implementación segura de las medidas de seguridad de terceros.

Multilingüismo : Llama 3.3 admite 7 idiomas además del inglés: francés, alemán, hindi, italiano, portugués, español y tailandés. Llama puede generar texto en otros idiomas que no cumplan con los umbrales de rendimiento de seguridad y utilidad. Recomendamos enfáticamente a los desarrolladores que utilicen este modelo para conversar en idiomas no admitidos sin implementar ajustes y controles del sistema en consonancia con sus políticas y las mejores prácticas compartidas en la Guía de uso responsable.

Consideraciones Éticas y de Seguridad

Directrices de Seguridad

  • Llama 3.3 instrucciones

    Nuestros principales objetivos al realizar ajustes de seguridad son brindar a la comunidad de investigación un recurso valioso para estudiar la solidez de los ajustes de seguridad, así como ofrecer a los desarrolladores un modelo disponible, seguro y potente para diversas aplicaciones a fin de reducir la carga de trabajo de los desarrolladores para implementar sistemas de IA seguros. Para obtener más detalles sobre las mitigaciones de seguridad implementadas, lea el artículo de Llama 3.

  • Ajuste de datos Empleamos un enfoque multifacético para la recopilación de datos, combinando datos generados por humanos de nuestros proveedores con datos sintéticos para mitigar los posibles riesgos de seguridad. Hemos desarrollado muchos clasificadores basados ​​en modelos de lenguaje grandes (LLM) que nos permiten seleccionar cuidadosamente indicaciones y respuestas de alta calidad, lo que mejora el control de calidad de los datos.

  • Rechazos y tono Basándonos en el trabajo que comenzamos con Llama 3, pusimos un gran énfasis en los rechazos modelo a indicaciones benignas, así como en el tono de rechazo. Incluimos indicaciones adversas y limítrofes en nuestra estrategia de datos de seguridad, y modificamos nuestras respuestas a los datos de seguridad para seguir las pautas de tono.

  • Sistemas Llama 3.3

    Los modelos de lenguaje de gran tamaño, incluido Llama 3.3, no están diseñados para implementarse de forma aislada, sino que deben implementarse como parte de un sistema de IA general con medidas de seguridad adicionales según sea necesario. Se espera que los desarrolladores implementen medidas de seguridad del sistema al crear sistemas de agentes. Las medidas de seguridad son fundamentales para lograr la alineación adecuada entre utilidad y seguridad, así como para mitigar los riesgos de seguridad inherentes al sistema y a cualquier integración del modelo o sistema con herramientas externas.

AnteriorQuickstartSiguienteModel Card: LLAMA3.3 70B

Última actualización hace 1 mes

Llama es una tecnología fundamental diseñada para usarse en una variedad de casos de uso. En la , se pueden encontrar ejemplos de cómo se han implementado de manera responsable los modelos Llama de Meta. Su enfoque es construir los modelos más útiles que permitan que el mundo se beneficie del poder de la tecnología, alineando la seguridad de nuestro modelo para los casos de uso genéricos que abordan un conjunto estándar de daños. Luego, los desarrolladores están en el asiento del conductor para adaptar la seguridad a su caso de uso, definiendo su propia política e implementando los modelos con las salvaguardas necesarias en sus sistemas Llama. Puede consultar la para obtener más información.

Como parte de nuestro enfoque de lanzamiento responsable, proporcionamos a la comunidad que los desarrolladores deben implementar con los modelos de Llama u otros modelos de lenguaje de gran tamaño, incluidos Llama Guard 3, Prompt Guard y Code Shield. Todas nuestras demostraciones contienen estas medidas de seguridad de forma predeterminada para que los desarrolladores puedan beneficiarse de la seguridad a nivel de sistema de forma inmediata.

página web Historias de la comunidad
Guía de uso responsable
medidas de seguridad
de implementaciones de referencia