Skip to content

Latest commit

 

History

History
222 lines (176 loc) · 21.3 KB

README.md

File metadata and controls

222 lines (176 loc) · 21.3 KB

Phi Cookbook: Ejemplos Prácticos con los Modelos Phi de Microsoft

Abrir y usar los ejemplos en GitHub Codespaces
Abrir en Dev Containers

Contribuidores en GitHub
Problemas en GitHub
Solicitudes de extracción en GitHub
PRs Bienvenidos

Observadores en GitHub
Forks en GitHub
Estrellas en GitHub

Comunidad de Azure AI en Discord

Phi es una serie de modelos de inteligencia artificial de código abierto desarrollados por Microsoft.

Actualmente, Phi es el modelo de lenguaje pequeño (SLM) más potente y rentable, con excelentes resultados en benchmarks de múltiples idiomas, razonamiento, generación de texto/chat, codificación, imágenes, audio y otros escenarios.

Puedes implementar Phi en la nube o en dispositivos de borde, y construir fácilmente aplicaciones de inteligencia artificial generativa con recursos computacionales limitados.

Sigue estos pasos para comenzar a usar estos recursos:

  1. Haz un Fork del Repositorio: Haz clic en Forks en GitHub
  2. Clona el Repositorio: git clone https://github.com/microsoft/PhiCookBook.git
  3. Únete a la Comunidad de Microsoft AI en Discord y conecta con expertos y otros desarrolladores

portada

Tabla de Contenidos

Uso de modelos Phi

Phi en Azure AI Foundry

Puedes aprender cómo usar Microsoft Phi y cómo construir soluciones de extremo a extremo en tus diferentes dispositivos de hardware. Para experimentar Phi por ti mismo, comienza probando los modelos y personalizando Phi para tus escenarios usando el Catálogo de Modelos de Azure AI Foundry. Puedes aprender más en Introducción a Azure AI Foundry.

Playground
Cada modelo tiene un área de pruebas dedicada para probar el modelo Azure AI Playground.

Phi en Modelos de GitHub

Puedes aprender cómo usar Microsoft Phi y cómo construir soluciones de extremo a extremo en tus diferentes dispositivos de hardware. Para experimentar Phi por ti mismo, comienza probando el modelo y personalizando Phi para tus escenarios usando el Catálogo de Modelos de GitHub. Puedes aprender más en Introducción a GitHub Model Catalog.

Playground
Cada modelo tiene un entorno de prueba dedicado para probar el modelo.

Phi en Hugging Face

También puedes encontrar el modelo en Hugging Face

Entorno de prueba
Entorno de prueba de Hugging Chat

IA Responsable

Microsoft está comprometido a ayudar a nuestros clientes a usar nuestros productos de IA de manera responsable, compartiendo nuestros aprendizajes y construyendo asociaciones basadas en la confianza a través de herramientas como las Notas de Transparencia y las Evaluaciones de Impacto. Muchos de estos recursos se pueden encontrar en https://aka.ms/RAI.
El enfoque de Microsoft hacia la IA responsable se basa en nuestros principios de IA: equidad, confiabilidad y seguridad, privacidad y protección, inclusión, transparencia y responsabilidad.

Los modelos a gran escala de lenguaje natural, imágenes y voz, como los utilizados en este ejemplo, pueden comportarse de maneras que sean injustas, poco confiables o ofensivas, lo que podría causar daños. Por favor, consulta la nota de transparencia del servicio Azure OpenAI para estar informado sobre los riesgos y limitaciones.

El enfoque recomendado para mitigar estos riesgos es incluir un sistema de seguridad en tu arquitectura que pueda detectar y prevenir comportamientos dañinos. Azure AI Content Safety proporciona una capa independiente de protección, capaz de detectar contenido dañino generado por usuarios o por IA en aplicaciones y servicios. Azure AI Content Safety incluye APIs de texto e imagen que te permiten detectar material dañino. Dentro de Azure AI Foundry, el servicio Content Safety te permite visualizar, explorar y probar código de ejemplo para detectar contenido dañino en diferentes modalidades. La siguiente documentación de inicio rápido te guía a través de cómo realizar solicitudes al servicio.

Otro aspecto a tener en cuenta es el rendimiento general de la aplicación. Con aplicaciones multimodales y de múltiples modelos, consideramos que el rendimiento significa que el sistema funciona como tú y tus usuarios esperan, incluyendo no generar resultados dañinos. Es importante evaluar el rendimiento de tu aplicación general utilizando Evaluadores de Rendimiento y Calidad y de Riesgos y Seguridad. También tienes la capacidad de crear y evaluar con evaluadores personalizados.

Puedes evaluar tu aplicación de IA en tu entorno de desarrollo utilizando el SDK de Evaluación de Azure AI. Dado un conjunto de datos de prueba o un objetivo, las generaciones de tu aplicación de IA generativa se miden cuantitativamente con evaluadores integrados o personalizados de tu elección. Para comenzar con el SDK de evaluación de Azure AI y evaluar tu sistema, puedes seguir la guía de inicio rápido. Una vez que ejecutes una evaluación, puedes visualizar los resultados en Azure AI Foundry.

Marcas Registradas

Este proyecto puede contener marcas registradas o logotipos de proyectos, productos o servicios. El uso autorizado de marcas registradas o logotipos de Microsoft está sujeto a y debe cumplir con las Directrices de Marca y Logotipo de Microsoft.
El uso de marcas registradas o logotipos de Microsoft en versiones modificadas de este proyecto no debe causar confusión ni implicar patrocinio por parte de Microsoft. Cualquier uso de marcas registradas o logotipos de terceros está sujeto a las políticas de esos terceros.

Descargo de responsabilidad:
Este documento ha sido traducido utilizando servicios de traducción automática basados en inteligencia artificial. Si bien nos esforzamos por garantizar la precisión, tenga en cuenta que las traducciones automáticas pueden contener errores o imprecisiones. El documento original en su idioma nativo debe considerarse la fuente autorizada. Para información crítica, se recomienda una traducción profesional realizada por humanos. No nos hacemos responsables de malentendidos o interpretaciones erróneas que puedan surgir del uso de esta traducción.