Zusammenfassung
Nach etwa 30 Jahren Forschung an neuronalen Netzen ist mit Deep Learning der Durchbruch gelungen. Mit dem Ziel, die wichtigsten Ideen hinter Deep Learning zu verstehen, starten wir bei biologischen neuronalen Netzen und dem Hopfield Modell. Dann führen wir den bis heute fundamentalen Backpropagation Algorithmus ein um schließlich Deep Learning und dessen Anwendungen darzustellen.
Access this chapter
Tax calculation will be finalised at checkout
Purchases are for personal use only
Notes
- 1.
Die Bionik beschäftigt sich mit der Entschlüsselung von „Erfindungen der belebten Natur“ und ihrer innovativen Umsetzung in der Technik (s. Wikipedia).
- 2.
Auch der Autor wurde von dieser Welle erfasst, die ihn 1987 von der Physik in die KI führte.
- 3.
Für eine deutliche Unterscheidung zwischen Trainingsdaten und anderen Werten eines Neurons werden wir im Folgenden die Anfragevektoren immer mit \({\boldsymbol{q}}\) (von engl. query) und die gewünschten Antwortvektoren mit \({\boldsymbol{t}}\) (von engl. target) bezeichnen.
- 4.
Historisch wurde Backpropagation mit der Sigmoidfunktion implementiert. Mittlerweile haben sich jedoch andere Funktionen als besser bewährt (siehe Abschn. 9.5.3).
- 5.
Der Begriff „tief“ ist hier zu verstehen im Sinne von tiefem Eindringen in das Netzwerk.
- 6.
Anschauliche Darstellungen solcher Merkmale inklusive Erklärung finden sich auf http://mlss.tuebingen.mpg.de/2015/slides/fergus/Fergus_1.pdf.
- 7.
Im Fall eines Grauwertbilds.
- 8.
Mehr dazu auf https://www.math.ias.edu/tml/dlasagenda
- 9.
Will man Kanten von Weiss nach Schwarz in gleicher Weise erkennen, dann muss man nach Anwendung von K den Absolutbetrag des Ergebnisses nehmen.
- 10.
Dokumentation mit vielen Beispielen auf https://keras.io
- 11.
Ein Beispiel mit Bilddaten in JPG-Dateien findet sich in Aufgabe 9.14.
- 12.
Im Backpropagation-Algorithmus aus Abschn. 9.5 sind dies die Werte \(\delta ^{(p)}_j\).
- 13.
- 14.
- 15.
Die Support-Vektor-Maschinen sind keine neuronalen Netze. Aufgrund der historischen Entwicklung und ihrer mathematischen Verwandtschaft zu linearen Netzen ist es didaktisch sinnvoller, sie hier zu behandeln.
Literatur
Anderson, J.; Rosenfeld, E.: Neurocomputing: Foundations of Research. Cambridge, MA : MIT Press, 1988. – Sammlung von Originalarbeiten
Hopfield, J.J.: Neural networks and physical systems with emergent collective computational abilities. In: Proc. Natl. Acad. Sci. USA 79 (1982), April, S. 2554–2558. – Wiederabdruck in [AR88] S. 460-464
Ritter, H.; Martinez, T.; Schulten, K.: Neuronale Netze.Addison Wesley, 1991
Rojas, R.: Theorie der neuronalen Netze. Springer, 1993
Hopfield, J.J.; Tank, D.W.: “Neural” Computation of Decisions in Optimization Problems. In: Biological Cybernetics (1985), Nr. 52, S. 141–152. –Springer
Zell, A.: Simulation Neuronaler Netze. Addison Wesley, 1994. – Im Buch beschriebener Simulator SNNS, bzw. JNNS: www-ra.informatik.uni-tuebingen.de/SNNS
Kohonen, T.: Correlation matrix memories. In: IEEE Transactions on Computers (1972), Nr. C-21, S. 353–359. –Wiederabdruck in [AR88] S. 171-174
Palm, G.: On Associative Memory. In: Biological Cybernetics 36 (1980), S. 19-31
Palm, G.: Memory capacities of local rules for synaptic modification. In: Concepts in Neuroscience 2 (1991), Nr. 1, S. 97–128. – MPI Tübingen
Bentz, Hans J.: Ein Gehirn für den PC. In: c’t (1988), Nr. 10, S. 84-96
Hertz, J.; Krogh, A.; Palmer, R.: Introduction to the theory of neural computation.Addison Wesley, 1991
Bishop, C.M.: Pattern recognition and machine learning. Springer New York:, 2006
Rumelhart, D.E.; Hinton, G.E.; R.J., Williams: Learning Internal Representations by Error Propagation.in [RM86], 1986
Rumelhart, D.; McClelland, J.: Parallel Distributed Processing. Bd. 1. MIT Press, 1986
Sejnowski, T.J.; Rosenberg, C.R.: NETtalk: a parallel network that learns to read aloud / John Hopkins University. 1986 (JHU/EECS-86/01). – Forschungsbericht. –Wiederabdruck in [AR88] S. 661-672
Ertel, W.; Schumann, J.; Suttner, Ch.: Learning Heuristics for a Theorem Prover using Back Propagation. In: Retti, J. (Hrsg.) ; Leidlmair, K. (Hrsg.): 5. Österreichische Artificial-Intelligence-Tagung.Berlin, Heidelberg : Informatik-Fachberichte 208, Springer-Verlag, 1989, S. 87-95
Suttner, Ch.; Ertel, W.: Automatic Acquisition of Search Guiding Heuristics. In: 10th Int. Conf. on Automated Deduction, Springer-Verlag, LNAI 449, 1990, S. 470-484
Riedmiller, M.; Braun, H.: A direct adaptive method for faster backpropagation learning: The RPROP algorithm. In: Proceedings of the IEEE International Conference on Neural Networks, 1993, S. 586-591
Ertel, W.: Advanced Mathematics for Engineers.Vorlesungsskript Hochschule Ravensburg-Weingarten: http://www.hs-weingarten.de/~ertel/vorlesungen/mae/matheng-skript.pdf, 2015
LeCun, Y.; Bengio, Y.; Hinton, G.: Deep Learning.In: Nature 521 (2015), Nr. 7553, S. 436-444
Goodfellow, I.; Bengio, Y.; Courville, A.: Deep Learning. MIT Press, 2016. –http://www.deeplearningbook.org
Vincent, P.; Larochelle, H.; Lajoie, I.; Bengio, Y.; Manzagol, P.:Stacked Denoising Autoencoders: Learning Useful Representations in a Deep Network with a Local Denoising Criterion. In: J. Mach. Learn. Res. 11 (2010), S. 3371–3408. – ISSN 1532-4435
He, K.; Zhang, X.; Ren, S.; Sun, J.: Deep residual learning for image recognition.In: Proceedings of the IEEE conference on computer vision and pattern recognition, 2016, S. 770-778
Benenson, R.: What is the class of this image?http://rodrigob.github.io/are_we_there_yet/build/classification_datasets_results.html, Februar 2016
LeCun, Y.; Bottou, L.; Bengio, Y.; Haffner, P.: Gradient-based learning applied to document recognition. In: Proceedings of the IEEE 86 (1998), Nr. 11, S. 2278–2324. – MNIST-Daten: http://yann.lecun.com/exdb/mnist
Netzer, Y.; Wang, T.; Coates, A.; Bissacco, A.; Wu, B.; Ng, A.: Reading digits in natural images with unsupervised feature learning. In: NIPS workshop on deep learning and unsupervised feature learning Bd. 2011, 2011, S. 4. – SVHN-Daten: http://ufldl.stanford.edu/housenumbers
Vinyals, O.; Toshev, A.; Bengio, S.; Erhan, D.: Show and tell: A neural image caption generator. In: Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition, 2015, S. 3156-3164
Russakovsky, O.; Deng, J.; Su, H.; Krause, J. u. a.: ImageNet Large Scale Visual Recognition Challenge.In: International Journal of Computer Vision (IJCV) 115 (2015), Nr. 3, S. 211–252. –http://image-net.org
Zhao, H.; Shi, J.; Qi, X.; Wang, X.; Jia, J.:Pyramid Scene Parsing Network. In: CVPR, 2017
Zhao, H.; Qi, X.; Shen, X.; Shi, J.; Jia, J.:ICNet for Real-Time Semantic Segmentation on High-Resolution Images. In: ECCV, 2018
Fawaz, H.; Forestier, G.; Weber, J.; Idoumghar, L.; Muller, P.-A.:Deep learning for time series classification: a review. In: Data Mining and Knowledge Discovery 33 (2019), Nr. 4, S. 917-963
Leviathan, Y.; Matias, Y.: Google Duplex: an AI system for accomplishing real-world tasks over the phone. Google AI blog, https://research.google/pubs/pub49194/, 2018
Bergstra, J.; Bardenet, R.; Bengio, Y.; Kégl, B.:Algorithms for hyper-parameter optimization. In: Advances in Neural Information Processing Systems, 2011, S. 2546-2554
Maclaurin, D.; Duvenaud, D.; Adams, R.: Gradient-based hyperparameter optimization through reversible learning. In: arXiv preprint arXiv:1502.03492 (2015)
Bickerman, Greg; Bosley, Sam; Swire, Peter; Keller, Robert: Learning to create jazz melodies using deep belief nets. In: First International Conference on Computational Creativity, 2010
Karpathy, Andrej: The Unreasonable Effectiveness of Recurrent Neural Networks. Mai 2015. – http://karpathy.github.io/2015/05/21/rnn-effectiveness/
Gatys, L.; Ecker, A.; Bethge, M.: A neural algorithm of artistic style.In: arXiv:1508.06576 (2015). – http://www.boredpanda.com/computer-deep-learning-algorithm-painting-masters
Goodfellow, I.; Pouget-Abadie, J.; Mirza, M.; Xu, B.; Warde-Farley, D.; Ozair, S.; Courville, A.; Bengio, Y.: Generative adversarial nets. In: Advances in neural information processing systems, 2014, S. 2672-2680
Schölkopf, S.; Smola, A.: Learning with Kernels: Support Vector Machines, Regularization, Optimization, and Beyond. MIT Press, 2002
Bishop, C.M.: Neural networks for pattern recognition. Oxford University Press, 2005
Burges, C. J.: A Tutorial on Support Vector Machines for Pattern Recognition. In: Data Min. Knowl. Discov. 2 (1998), Nr. 2, S. 121-167
Anderson, J.; Pellionisz, A.; Rosenfeld, E.: Neurocomputing (vol. 2): directions for research.Cambridge, MA, USA : MIT Press, 1990
Esteva, A.; Kuprel, B.; Novoa, R. u. a.: Dermatologist-level classification of skin cancer with deep neural networks.In: Nature 542 (2017), Nr. 7639, S. 115-118
Litjens, G.; Sánchez, C.; Timofeeva, N. u. a.: Deep learning as a tool for increased accuracy and efficiency of histopathological diagnosis.In: Nature Scientific Reports 6 (2016), S. 26286
Radford, A.; Narasimhan, K.; Salimans, T.; Sutskever, I.: Improving language understanding by generative pre-training. (2018)
Brown, T.B.; Mann, B.; Ryder, N. u. a.: Language models are few-shot learners. arXiv:2005.14165, (2020)
Author information
Authors and Affiliations
Corresponding author
Rights and permissions
Copyright information
© 2021 Der/die Autor(en), exklusiv lizenziert durch Springer Fachmedien Wiesbaden GmbH , ein Teil von Springer Nature
About this chapter
Cite this chapter
Ertel, W. (2021). Neuronale Netze. In: Grundkurs Künstliche Intelligenz. Computational Intelligence. Springer Vieweg, Wiesbaden. https://doi.org/10.1007/978-3-658-32075-1_9
Download citation
DOI: https://doi.org/10.1007/978-3-658-32075-1_9
Published:
Publisher Name: Springer Vieweg, Wiesbaden
Print ISBN: 978-3-658-32074-4
Online ISBN: 978-3-658-32075-1
eBook Packages: Computer Science and Engineering (German Language)