In almost all areas of business, industry, science, and everybody's life, the amount of available data that contains value and knowledge is immense and fast growing. However, turning data into information, information into knowledge, and knowledge into value is challenging.To extract the knowledge, the data needs to be stored, managed, and analyzed. Thereby, we not only have to cope with increasing amount of data, but also with increasing velocity, i.e., data streamed in high rates, with heterogeneous data sources and also more and more have to take data quality and reliability of data and information into account. These properties referring to the four V's (Volume, Velocity, Variety, and Veracity) are the key properties of "Big Data". Big Data grows faster than our ability to process the data, so we need new architectures, algorithms and approaches for managing, processing, and analyzing Big Data that goes beyond traditional concepts for knowledge discovery and data mining. This course introduces Big Data, challenges associated with Big Data, and basic concepts for Big Data Management and Big Data Analytics which are important components in the new and popular field Data Science.


During the last decade the availability of large amounts of data and the strong increase in computing power allowed a renaissance of neural networks and advanced planning techniques for independent agents. Whereas the area of deep learning extended well established neural network technology to allow a whole new level of data transformation, modern reinforcement learning techniques yield the artificial backbone for intelligent assistant systems and autonomous vehicles. The course starts with an introduction to neural networks and explains the developments that led to deep architectures. Furthermore, the course gives an introduction to advanced planning techniques and how they can be trained using deep neural networks and other machine learning technologies.

Grids und Clouds stellen unterschiedliche Ausprägungen eines verteilten Informatikparadigmas dar, durch das unter Ausnutzung von geographisch und administrativ verteilten Systemen im Bedarfsfall ein Pool von Ressourcen und abstrakten, virtualisierten und dynamisch-skalierbaren Services (z. B. Rechenleistung, Speicherkapazität, Plattformen, Visualisierung) über das Internet bereitgestellt wird.

In dieser Vorlesung (und den begleitenden Übungen) werden die Grids und Clouds zu Grunde liegenden Fragestellungen und Technologien vorgestellt und praktisch angewandt. Nach einer ausführlichen Motivation werden zunächst grundlegende verteilte Systemmodelle und Basistechnologien betrachtet. Darauf aufbauend werden folgende Themen behandelt: Cloud-Architekturen, Cloud-Programmierung und Software-Umgebungen (Workflows, MapReduce, Spark, Google Cloud Dataflow, Amazon AWS, Data Lakes, etc.), Virtuelle Organisationen, Grid Computing-Umgebungen, Resource Management, Data Management, Ubiquitous Computing mit Clouds und im Internet of Things, Grids of Clouds, Clouds of Grids. 
Abschließend werden spezielle Fragestellungen zu Realzeitaspekten, wie sie zum Beispiel im Urgent Computing auftreten, und neue Trends behandelt.

Die Vorlesung richtet sich vornehmlich an Master-Studenten, die sich mit neueren Entwicklungen im verteilten Hochleistungsrechnen (Systemarchitektur, Programmierparadigmen, Leistungseffizienz, Energieeffizienz) vertraut machen wollen.

Der Relevanz des Themas wird durch Gastbeiträge externer Experten Rechnung zu tragen. Diese Vorträge werden teilweise in englischer Sprache gehalten.