Envíos gratis en compras superiores a $90.000
Inicio/Profesional/Tecnología/Nuevas tecnologías/Prompt engineering para inteligencia artificial generativa

Prompt engineering para inteligencia artificial generativa

$65.900

  • Envío gratis en compras superiores a $90.000
  • Autores: James Phoenix, Mike Taylor
    Edición: 1
    Año: 2025
    Editorial: Marcombo
    Encuadernación: Rústica
    Medida: 15×22
    Páginas: 390
    Lomo: 18 mm
    Peso: 920 gr

    Hasta 12 pagos sin tarjeta con Mercado Pago. Saber más
    Compra con Mercado Pago sin tarjeta y paga mes a mes
    1
    Agrega tu producto al carrito y al momento de pagar, elige “Cuotas sin Tarjeta” o “Meses sin Tarjeta”.
    2
    Inicia sesión en Mercado Pago.
    3
    Elige la cantidad de pagos que se adapten mejor a ti ¡y listo!

    Crédito sujeto a aprobación.

    ¿Tienes dudas? Consulta nuestra Ayuda.

    SKU: 9788426738837 Categorías: , ,

    Descripción

    Domina la IA generativa con LLM y modelos de difusión

    Los modelos como ChatGPT y DALL-E están revolucionando la inteligencia artificial, pero aprovechar todo su potencial puede ser un desafío. Este libro, de James Phoenix y Mike Taylor, le guía paso a paso para trabajar eficazmente con IA generativa, presentando los fundamentos del prompt engineering y su aplicación práctica.

    Descubrirá principios clave transferibles entre modelos, comparaciones entre opciones como GPT-4 y alternativas de código abierto, y casos prácticos en PNL, generación de texto, imágenes y código. Una herramienta esencial para desarrolladores que buscan transformar sus proyectos y destacar en un mercado competitivo.

    CONTENIDO

    Prefacio
    1. Los cinco principios del prompting

    Visión general de los cinco principios del prompting
    1.1. Visión general de los cinco principios del
    prompting

    1.1.1. Proporcionar orientación
    1.1.2. Especificar el formato
    1.1.3. Proporcionar ejemplos
    1.1.4. Evaluar la calidad
    1.1.5. Dividir la tarea
    1.2. Resumen
    2.Introducción a los modelos de lenguaje de gran
    tamaño para la generación de texto
    2.1. ¿Qué son los modelos de generación de texto?
    2.1.1. Representaciones vectoriales: la esencia
    numérica del lenguaje
    2.1.2- Arquitectura transformer: orquestación de
    relaciones contextuales
    2.1.3. Generación probabilística de texto: el
    mecanismo de decisión
    2.2. Bases históricas: el auge de las arquitecturas de
    transformadores
    2.3. Transformadores preentrenados generativos de
    OpenAI
    2.3.1.GPT-3.5-turbo y ChatGPT
    2.4. GPT-4
    2.5. Gemini de Google
    2.6. Llama de Meta y Open Source
    2.7. Aprovechamiento de la cuantización y LoRA
    2.8. Mistral
    2.9. Anthropic: ClaudeGPT-4V(ision)
    2.10. Comparación de modelos
    2.11. Resumen
    3. Prácticas estándar para la generación de texto con
    ChatGPT
    3.1. Generación de listas
    3.2. Generación de listas jerárquicas
    3.3. Cuando evitar el uso de expresiones regulares
    3.4. Generación de JSON
    3.4.1. YAML
    3.5. Filtrado de payloads en YAML
    3.6. Tratamiento de payloads no válidos en YAML
    3.7. Generación de distintos formatos con ChatGPT
    3.7.1. Datos CSV simulados
    3.8. Explicarlo como si tuviera cinco años
    3.9. Traducción universal mediante los LLM
    3.10. Preguntar por el contexto
    3.11. Desagregación de estilos del texto
    3.12. Identificación de las características deseadas
    del texto
    3.13. Generación de contenido nuevo utilizando las
    características extraídas
    3.14. Extracción de características de texto
    específicas mediante los LLM
    3.15. Elaboración de resúmenes
    3.16. Realización de resumen teniendo en cuenta las
    limitaciones de la ventana contextual
    3.17. División del texto en fragmentos

    3.17.1. Ventajas de la segmentación de texto
    3.17.2. Escenarios para la división del texto en
    fragmentos
    3.17.3. Mal ejemplo de segmentación
    3.18. Estrategias de la división de texto en
    fragmentos
    3.19. Detección de oraciones con SpaCy
    3.20. Creación de un algoritmo sencillo de
    segmentación con Python
    3.21. Fragmentado por ventana deslizante
    3.22. Paquete de segmentación de texto
    3.23. Segmentación de texto con Tiktoken
    3.24. Codificaciones
    3.24.1. Cómo comprender la tokenización de
    cadenas
    3.25. Estimación del uso de tokens para llamadas a la
    API de chat
    3.26. Análisis de sentimientos
    3.26.1. Técnicas para mejorar el análisis de
    sentimiento
    3.26.2. Limitaciones y retos del análisis de
    sentimiento
    3.27. De menos a más
    3.27.1. Planificación de la arquitectura
    3.27.2. Codificación de funciones individuales
    3.27.3. Adición de pruebas
    3.27.4. Ventajas de la técnica de menos a más
    3.27.5. Retos de la técnica de menos a más
    3.28. Role prompting
    3.29. Ventajas del role prompting
    3.30. Retos del role prompting
    3.31. Cuando utilizar el role prompting
    3.32. Tácticas del prompting de GPT
    3.32.1. Evitación de alucinaciones con referencias
    3.32.2. Concesión a los GPT de “Tiempo para
    pensar”
    3.32.3. Táctica del monólogo interior
    3.32.4. Autoevaluación de respuestas de LLM
    3.33. Clasificación con LLM
    3.34. Creación de un modelo de clasificación
    3.35. Voto mayoritario para la clasificación
    3.36. Evaluación de criterios
    3.37. Meta prompting
    3.38. Resumen
    4. écnicas avanzadas para la generación de texto con
    LangChain
    4.1. Introducción a LangChain
    4.1.1.Configuración del entorno
    4.2. Modelos de chat
    4.3. Modelos de chat en streaming
    4.4. Creación de múltiples generaciones LLM
    4.5. Plantillas de prompt de LangChain
    4.6. Lenguaje de expresión LangChain (LCEL)
    4.7. Uso de Prompt
    4.8. Template con modelos de chat

    4.9. Analizadores de salida
    4.10. Evaluaciones de LangChain
    4.11. Llamadas a funciones en OpenAI
    4.12. Llamadas a funciones en paralelo
    4.13. Llamadas a funciones en LangChain
    4.14. Extracción de datos con LangChain
    4.15. Planificación de consultas
    4.16. Creación de plantillas de prompt de pocos
    elementos
    4.16.1. Creación con un número fijo de ejemplos
    4.16.2. Formateado de los ejemplos
    4.16.3. Selección de ejemplos de pocos elementos
    por longitud
    4.17., Limitaciones con ejemplos de pocos elementos
    4.18. Almacenamiento y carga de prompts LLM
    4.19. Conexión de datos
    4.20. Cargadores de documentos
    4.21. Divisores de texto
    4.22. División de texto por longitud y tamaño del
    token
    4.23. División de texto con división recursiva de
    caracteres
    4.24. Descomposición de tareas
    4.25. Encadenamiento de prompts
    4.25.1. Cadena secuencial itemgetter y extracción
    de claves de diccionario
    4.25.2. Estructuración de cadenas LCEL
    4.25.3. Cadenas de documentos Stuff
    4.25.4. Refinamiento
    4.25.5. Map reduce
    4.25.6. Map re-rank
    4.26. Resumen
    5. Bases de datos vectoriales con FAISS y Pinecone
    5.1. Generación mejorada por recuperaciones (RAG)
    5.2. Introducción a los embeddings
    5.3. Carga de documentos
    5.4. Recuperación de memoria con FAISS
    5.5. RAG con LangChain
    5.6. Bases de datos vectoriales alojadas con Pinecone
    5.7. Consulta automática
    5.8. Mecanismos alternativos de recuperación
    5.9. Resumen
    6. Agentes autónomos con memoria y herramientas
    6.1. Cadena de razonamiento
    6.2. Agentes Reason and Act (ReAct)
    6.2.1. Implementación de Reason and Act
    6.2.2. Utilización de las herramientas
    6.3. Utilización de los LLM como API (Funciones
    OpenAI)
    6.4. Comparación entre las funciones OpenAI y ReAct
    6.4.1. Casos de uso de las funciones de OpenAI
    6.4.2. ReAct
    6.4.3. Casos de uso de ReAct

    6.5. Paquetes de herramientas para agentes
    6.6. Personalización de los agentes estándar
    6.7. Agentes de aduanas en LCEL
    6.8. Comprensión y uso del contenido de la memoria
    6.8.1. Memoria a largo plazo
    6.8.2. Memoria a corto plazo
    6.8.3 Memoria a corto plazo en agentes de
    conversación QA
    6.9. Memoria en LangChain
    6.9.1. Preservación del estado
    6.9.2. Consulta al estado
    6.9.3. ConversationBufferMemory
    6.10. Otros tipos populares de memoria en
    LangChain
    6.10.1. ConversationBufferWindowMemory
    6.10.2. ConversationSummaryMemory
    6.10.3. ConversationSummaryBufferMemory
    6.10.4. ConversationTokenBufferMemory
    6.11. Agentes de funciones de OpenAI con memoria
    6.12. Frameworks de agentes avanzados
    6.12.1. Agentes de planificación y ejecución
    6.12.2. Árbol de razonamiento
    6.13. Callbacks (Funciones de retorno)
    6.13.1. Callbacks globales (constructor)
    6.13.2. Callbacks específicos de solicitud
    6.13.3. El argumento Verbose
    6.13.4. ¿Cuándo utilizar Which?
    6.13.5. Recuento de tokens con LangChain
    6.14. Resumen
    7. Introducción a los modelos de difusión para la
    generación de imágenes
    7.1. DALL-E de OpenAI
    7.2. Midjourney
    7.3. Stable Diffusion
    7.4. Gemini de Google
    7.5. Texto a vídeo
    7.6. Comparación de modelos
    7.7. Resumen
    8. Prácticas estándar para la generación de imágenes
    con Midjourney
    8.1. Modificadores de formato
    8.2. Modificadores de estilos artísticos
    8.3. Prompt engineering inversa
    8.4. Impulsores de la calidad
    8.5. Prompts negativos
    8.6. Términos ponderados
    8.7. Prompting con una imagen
    8.8. Inpainting (Retoque de imágenes)
    8.9. Outpainting (Ampliación de imágenes)
    8.10. Personajes consistentes
    8.11. Reescritura de prompts
    8.12. Desagregación de memes
    8.13. Mapeo de memes

    8.14. Análisis de prompts
    8.15. Resumen
    9. Técnicas avanzadas de generación de imágenes con
    Stable Diffusion
    9.1. Ejecución de Stable Diffusion
    9.2. Interfaz web de usuario AUTOMATIC1111
    9.3. Img2Img
    9.4. Escalado de imágenes
    9.5. Interrogate CLIP
    9.6. Inpainting y outpainting en SD
    9.7. ControlNet
    9.8. Modelo de segmentación de todo por segmentos
    (SAM)
    9.9. Ajuste fino de DreamBooth

    9.10. Refinador XL de Stable Diffusion
    9.11. Resumen
    10. Creación de aplicaciones potenciadas por IA
    10.1. Redacción de blogs con IA
    10.2. Investigación del tema
    10.3. Entrevista con expertos
    10.4. Generación del esquema
    10.5. Generación de texto
    10.6. Estilo de escritura
    10.7. Optimización del título
    10.8. Imágenes de blogs con IA
    10.9. Interfaz de usuario
    10.10. Resumen

    Ir a Arriba