Autor: EMILIO SORIA OLIVAS
Páginas: 336
Editorial: Alfaomega – Ra-ma
$35.683
Autor: EMILIO SORIA OLIVAS
Páginas: 336
Editorial: Alfaomega – Ra-ma
Compra en hasta 12 pagos mensuales sin usar tarjeta de crédito
¿Tienes dudas? Consulta nuestra FAQ . Crédito sujeto a aprobación.
“Este libro tiene como objetivo acercar al lector, de una manera teórica y práctica, a la Inteligencia Artificial moderna usando modelos neuronales artificiales profundos que constituyen la base actual de esta tecnología.
Esta obra, dirigida a estudiantes y profesionales, nos brinda información clara y concisa sobre la IA en la que se abordan desde el concepto de neurona artificial planteado en 1943 hasta las últimas aplicaciones de Modelos Generativos y Aprendizaje Reforzado. Se tratan aplicaciones prácticas en el campo de bioseñales, reconocimiento de imágenes, series temporales y sistemas de IA que dirigen videojuegos, entre muchas otras cosas.
Cada capítulo contiene una parte de teoría e incluye actividades y ejemplos prácticos con el propósito de facilitar la asimilación de los conocimientos tratados. Está escrito con lenguaje claro y didáctico por lo que es muy adecuado para impartir cursos sobre sistemas de IA o bien de Modelos Neuronales.
Además, el libro se acompaña de un repositorio de código con todas las prácticas resueltas y listas para
ejecutarse en entornos como Google Colab.
“AGRADECIMIENTOS
AUTORES
INTRODUCCIÓN AL LIBRO
CAPÍTULO 1. INTRODUCCIÓN AL APRENDIZAJE PROFUNDO
1.1 EL SIGLO DE LOS DATOS
1.2 ANÁLISIS DE LOS DATOS. ETAPAS
1.3 APRENDIZAJE MÁQUINA. TIPOS Y APLICACIONES
1.4 APRENDIZAJE PROFUNDO. BREVE HISTORIA
1.5 BIBLIOGRAFÍA
CAPÍTULO 2. MODELOS NEURONALES MULTIFUNCIÓN
2.1 NEURONA ARTIFICIAL. ELEMENTOS QUE LA FORMAN
2.2 PERCEPTRÓN. ALGORITMO DE APRENDIZAJE
2.3 ADALINA. DESCENSO POR GRADIENTE. LMS
2.4 ESTRUCTURAS ADAPTATIVAS. VARIANTES DEL LMS
2.5 PERCEPTRÓN MULTICAPA. BACKPROPAGATION
2.6 VARIANTES DEL BACKPROPAGATION ELECCIÓN DE LA
ARQUITECTURA
2.7 APLICANDO EL PERCEPTRÓN MULTICAPA
2.7.1 Arquitectura
2.7.2 Modo de funcionamiento
2.7.3 Función de coste
2.7.4 Sobreajuste (overfitting)
2.7.5 Preprocesado de las entradas
2.7.6 Problemas con estructuras profundas
2.8 MODELOS NEURONALES PARA CLUSTERING. SOM
2.8.1 laboratorio
2.8.2 MLP usado como clasificador
2.8.3 MLP usado como modelizador (regresión)
2.9 BIBLIOGRAFÍA
CAPÍTULO 3. MODELOS NEURONALES ORIENTADOS A VISIÓN
3.1 PROBLEMAS DEL MLP EN IMÁGENES
3.2 ARQUITECTURA DE UNA CNN. PARTES ESENCIALES
3.3 ARQUITECTURAS FAMOSAS
3.3.1 Modelos más relevantes que han participado en el ILSV
3.4 AUMENTO DE DATOS Y TRANSFERENCIA DE APRENDIZAJE
3.5 OTRAS APLICACIONES DE LAS CNN
3.5.1 Detección de objetos
3.5.2 Segmentación de imágenes
3.5.3 Laboratorio
3.6 BIBLIOGRAFÍA
CAPÍTULO 4. MODELOS NEURONALES ORIENTADOS A DATOS TEMPORALES
4.1 DATOS TEMPORALES. CARACTERÍSTICAS
4.2 MODELOS MULTICAPA RECURRENTES CLÁSICOS
4.3 REDES RECURRENTES (RNN)
4.4 LONG-SHORT-TERM MEMORY (LSTM)
4.5 REDES GATED RECURRENT UNIT (GRU)
4.6 APLICACIONES DE LAS REDES RECURRENTES
4.7 LABORATORIO
4.8 BIBLIOGRAFÍA
CAPÍTULO 5. MODELOS GENERATIVOS
5.1 INTRODUCCIÓN A LOS MODELOS GENERATIVOS
5.2 AUTOENCODERS
5.3 AUTOENCODERS VARIACIONALES
5.4 GAN (GENERATIVE ADVERSARIAL NETWORKS)
5.5 PROBLEMAS EN EL AJUSTE DE LAS GAN
5.6 VARIACIONES DE LAS GAN
5.7 LABORATORIO
5.8 BIBLIOGRAFÍA
CAPÍTULO 6. APRENDIZAJE REFORZADO
6.1 INTRODUCCIÓN AL APRENDIZAJE REFORZADO
6.1.1 Conceptos previos: elementos de un sistema de Aprendi Reforzado
6.2 ELEMENTOS MATEMÁTICOS A TENER EN CUENTA EN EL
APRENDIZAJE REFORZADO
6.3 MÉTODOS DE APRENDIZAJE POR DIFERENCIAS TEMPORALES: SARSA Y Q-LEARNING
6.4 APRENDIZAJE REFORZADO PROFUNDO
6.5 LABORATORIO
6.6 BIBLIOGRAFÍA
MATERIAL ADICIONAL