Redes neurales James A. Anderson

By: Anderson, James AMaterial type: TextTextLanguage: Spanish Publisher: México : Alfaomega, 2007Edition: Primera ediciónDescription: 616 páginas : ilustraciones, gráficas, fotografías ; 23 x 17 cmContent type: texto Media type: sin mediación Carrier type: volumenISBN: 9789701512654Subject(s): Redes neurales (Informática)DDC classification: 006.33
Contents:
Summary: Redes Neurales, es un libro de texto escrito específicamente para quienes desean entender cómo realizan algunas funciones básicas los cerebros orgánicos y cómo se pueden simular dichas funciones mediante el uso de computadoras y redes neurales. Por el mismo, no es un texto que sea exclusivo para ingenieros o computólogos, sino también para psicólogos, biólogos, neurocientíficos y cualquier otra persona interesada en el tema del pensamiento mecánico.
Tags from this library: No tags from this library for this title. Log in to add tags.
    Average rating: 0.0 (0 votes)
Item type Current location Call number Copy number Status Date due Barcode
Libros Libros Biblio - ITSC
Sala general
SG 006.33 A545r 2007 (Browse shelf) e.1 Available 114
Libros Libros Biblio - ITSC
Sala general
SG 006.33 A545r 2007 (Browse shelf) e.2 Available 115
Browsing Biblio - ITSC shelves, Shelving location: Sala general Close shelf browser
SG 006.31 A654 2011 Aprendizaje automático / SG 006.31 A654 2011 Aprendizaje automático / SG 006.33 A545r 2007 Redes neurales SG 006.33 A545r 2007 Redes neurales SG 006.5 B832g 2007 La guía de bolsillo de iPod & iTunes / SG 006.5 P281g 2006 Guía de campo de macromedia flash 8 / SG 006.6 A668p 2012 Programe juegos con actionScript 3.0 /

Contiene datos acerca del autor en la contracubierta.

Contiene referencia páginas 595-597

Propiedades de las neuronas individuales, 21/Historia: funcionamiento, 22/Representaciones, estrategias computacional y aplicaciones prácticas, 23/Equipos, 25/La neurona clásica, 27/Comportamiento eléctrico neuronal, 33/El potencial de membrana, 33/ ¿porque son tan lentas las neuronas?, 44/Dominio del tiempo, 46/Dominio del espacio, 46/Todo junto ahora, 47/ ¿para qué sirven los potenciales de acción, 50/Referencias, 53/Integración sinóptico y modelos de neuronas, 55/Eventos sinópticos eléctricos, 55/Interacción de los efectos sinópticos, 59/Teorías del potencial lento de neurona, 63/Ruido, 65/Modelo teórico de la neurona, 65/Neuronas de dos estados, 66/Una clase más realista de modelos: los integradores, 69/Las neuronas genéricas de las redes neurales, 71/La primera etapa: adición lineal de las entradas sinópticas, 73/La segunda etapa: la función de entrada - salida, 74/Modelo binario de las neuronas, 76/Conclusión, 77/Referencias, 78/Operaciones vectoriales esenciales, 79/Algebra lineal, 81/Vectores de estado, 81/Convenciones de notación y de computo, 82/Adicción y sustracción de vectores83/Longitud, 86/Multiplicación por una constante, 87/El producto interno, 88/Normalización, 89/Angulo entre vectores, 90/Ortogonalidad, 92/Independencia lineal, 94/Programa de prueba, 96/Inhibición lateral y procesamiento sensorial, 99/Receptores táctiles, 100/Otros sistemas, 105/Hágalo usted mismo: registro simple de una unidad individual, 107/Limulus: un sencillo computo neuronal distribuido107/Biología, 108/Un programa demostrando la inhibición lateral, 119/Un programa principal, 119/Tipos, constantes y variables, 120/Inicialización, 121/Procedimientos de control para la pantalla y el despliegue, 123/El computo, 124/Operación y ejemplos, 127/Redes del ganador-se-lleva-todo (GSLT), 131/Notas bibliográficas, 135/Referencias, 135/Operaciones sencillas de matrices, 137/Una matriz, 138/Suma, resta y multiplicación por una constante, 139/Multiplicación de un vector y una matriz, 140/Transposición, 141/Eigenvectores y eigenvalores, 144/Sistemas lineales, 146/Referencias, 149/El asociador lineal: antecedentes y fundamentos, 151/Aprendizaje sináptico: reglas hebbianas, 151/Bases físicas de la memoria, 153/Modificaciones sinápticas,154/Aprendizaje asociativo, 160/Bases biológicas de la modificación sináptica hebbianas, 160/Las reglas hebbianas de aprendizaje del producto externo, 165/Imprimir ahora, 168/Teoría, 170/Ejemplo numérico, 172/Asociaciones múltiples, 174/Heteroasociacio y autoasociación, 175/Series de Taylor, 177/Historia, 178/Referencias, 177/El asociador lineal: simulaciones, 181/Propiedades del producto interno, 188/Distribuciones de elementos, 190/Memorias de vectores sumados, 195/Programa SVDEMO, 199/Memoria asociativa, 200/Programa AMDEMO, 202/Demostración de AMDEMOL, 202/Simulación de caracteres, 203/Programa AMCHARDEMO, 206/Autoasociacion, 208/Recuperación de la información, 1210/Referencias, 211/Primeros modelos de redes: El perceptron, 213/Aprendizaje supervisado y no supervisado, 214/Reconocimiento de patrones, 214/Un apartado cognitivo, 215/Redes aprendices, 216/El perceptron, 218/Unidades de lógica umbral, 219/Arquitectura del perceptron, 220/Perceptron simplificado, 221/Aprendizaje del perceptron, 223/El teorema e convergencia del perceptron, 225/El ataque a los perceptores de Minsky y Papert, 231/Conectividad, 234/Referencias, 240/Algoritmos de descenso en gradiente, 241/Procedimiento de Widrow-Hoff para el descenso en gradiente, 242/Análisis: espacio de pesos, 244/El gradientes, 245/El algoritmo de Widrow-Hoff, 248/Memorias a corto plazo, 253/Demostración del aprendizaje de Widrow-Hoff, 255/Retropropagacion, 255/Por qué es necesaria la retropropagacion, 257/Primer caso: capa de salida, 262/Segunda caso: capa anterior, 263/Aplicación de la retropropagacion, 266/NETtalk, 266/Comprensión de datos y componentes principales, 268/Reconocimiento de caracteres, 271/ ¿Qué hay de malo con el descenso en gradiente?, 275/Referencias, 277/Representación de la información, 279/ ¿Neuronas o qué?, 280/Distribución contra especificidad, 284/Representaciones distribuidas, 286/Problemas de acoplamiento, 287/Salida motora, 288/Estructuras en capa, 289/Disposición de las unidades dentro de las regiones corticales, 296/Circuitería local, 296/Conectividad, 297/Mapas, 300/Sistema visual, 306/Sistema auditivo, 313/Distribución de la salida motora, 316/Teoría de la computación, 317/ Otras estructuras con organización topográfica, 320/Mapas y murciélago, 323/Representaciones cognoscitivas, 330/Similitud, 334/Reciprocidad, 336/Representaciones naturales de los datos, 337/Referencias, 338/Aplicaciones de los asociadores sencillos: formación de conceptos y movimientos de objetos, 341/Conceptos, 342/Modelos de categorización, 343/Modelos prototipos, 344/Modelos ejemplares, 345/Categoría con múltiples miembros, 348/El efecto prototipo, 351/Simulaciones, 351/Patones de estímulos de puntos aleatorios, 353/Representación de los patrones de puntos, 353/Interacciones entre los patrones de actividad, 355/Simulaciones por computadora de los experimentos de similitud, 357/Números de ejemplos, 358/Procedimientos, 359/Simulación, 361/Simulaciones basadas en caracteres, 364/Objetos móviles, 365/El problema de la apertura, 366/La red de movimiento, 374/Resultados de la simulación, 379/Conclusiones, 384/Referencias, 385//Energía y redes neurales: redes de Hopfield y máquinas de Bolzmann, 387/Análisis de la red de Hopfield, 390/Minimización de la energía, 391/Dinámica, 392/Modelo Ising, 395/Aprendizaje, 396/Capacidad y transición de fase, 397/Redes continua, 398/Optimización utilizando redes neurales, 400/Maquinas de Boltzmann: extensiones de las redes de Hopfield, 402/Encontrar los mínimos, 403/Un ejemplo de la dinámica, 407/Demostraciones, 411/Referencias, 415/Clasificadores del vecino más cercano, 417/Clasificadores de patrones, 418/Un cálculo del vecino más cercano utilizando neuronas modelo, 420/Variantes del vecino más cercano, 422/El algoritmo CVA, 428/Memorias distribuidas exiguas, 429/Aproximación e interpolación, 434/Aproximación, 436/Interpolación, 437/Razonamiento basado en ejemplos aplicados a la cognición, 441/Razonamiento basado en casos, 442/Resumen, 443/Referencias, 443/Mapas adaptativos, 445/Mapas de Kohonen, 446/Los algoritmos básicos, 447/Mapas: un programa adaptativos de mapeado, 450/Formación del mapa, 451/Otras distribuciones, 453/Patologías de mapas, 455/Mapas de alta dimensionalidad, 458/Simulación altamente dimensional, 461/Advertencia biológica, 467/Referencias, 470/El modelo ECC: una simple red neural autoasociativa no lineal, 473/Modelos de retroalimentación, 475/Reconstrucción autoasociativa, 475/Un experimento con el método de potencia, 477/Desplazamiento de eigenvalores, 481/Aprendizaje, 482/Introduciendo la no linealidad de la ECC, 483/Estabilidad en esquinas, 484/Cuencas de atracción y estabilidad, 486/Efectos de los limites, 489/Tasa de caída, 491/Una simulación, 493/Conectividad, 495/Desplazamiento de esquinas y adaptación, 496/Inversiones del cubo de Necker, 496/Vector de adaptaciones, 498/Tiempo de respuestas, 500/Teoría: cálculo del tiempo de reacción, 501/Simulación, 503/Representación de datos, 505/Conexión con la teoría, 508/Agrupamiento, 508/Agrupamiento de emisores, 510/Algoritmos de agrupamiento para redes neurales, 511/Codificación y representación del estímulo, 514/Referencias, 518/Cómputos asociativos, 521/Aristóteles sobre la memoria, 522/Modelos posteriores de asociación, 528/Cómputos asociativos, 531/Simulaciones del cómputo asociativo, 533/La ley de Ohm: física cualitativa, 541/Desambiguación y asociación común, 545/Ejemplo de desambiguación, 546/Redes semántica, 549/Modelos de conceptos complejos, 552/Relación entre el décimo eigenvalor (valor propio) más grande y el más grande, 554/Referencias, 556/Enseñándoles aritmética a una red neural, 559/Representación de datos, 561/Desarrollo del concepto de número, 565/Matemáticas, 568/Una representación de datos para una red neural, 569/Sistemas numéricos, 571/Otros trabajos, 573/Hechos de multiplicación, 575/Simulaciones, 576/Productos falsos, 580/Otros efectos, 581/Efectos

relacionados con la magnitud del producto, 582/Otros efectos de generalización, 583/Programación de cómputos análogos a los del cerebro, 585/Generalización: Fodor y pylyshyn, 586/Programación de una red: mayor y menor, 589/Discusión y especulación, 593/Referencias, 593/Epilogo, 599/Índice, 601.

Redes Neurales, es un libro de texto escrito específicamente para quienes desean entender cómo realizan algunas funciones básicas los cerebros orgánicos y cómo se pueden simular dichas funciones mediante el uso de computadoras y redes neurales. Por el mismo, no es un texto que sea exclusivo para ingenieros o computólogos, sino también para psicólogos, biólogos, neurocientíficos y cualquier otra persona interesada en el tema del pensamiento mecánico.

There are no comments on this title.

to post a comment.

Click on an image to view it in the image viewer

Carr. Mella, Km. 14, Esq. Francisco de Rosario Sánchez San Luis, Sto Dgo. Este. TEl. 809.475.4872 ext. 3100, 3101 y 3102 Correo electrónico: biblioteca@itsc.edu.do

Powered by Koha