|
|
Code: MASCM-DB-140 |
4VU (4 Semesterwochenstunden) |
6 |
Studiensemester: 1 |
Pflichtfach: ja |
Arbeitssprache:
Deutsch |
Prüfungsart:
Semesterbegleitende Portfolioprüfung (Wiederholung jährlich)
[letzte Änderung 12.01.2025]
|
MASCM-DB-140 Supply Chain Management und Digital Business, Master, SO 01.04.2025
, 1. Semester, Pflichtfach
|
Die Präsenzzeit dieses Moduls umfasst bei 15 Semesterwochen 60 Veranstaltungsstunden (= 45 Zeitstunden). Der Gesamtumfang des Moduls beträgt bei 6 Creditpoints 180 Stunden (30 Std/ECTS). Daher stehen für die Vor- und Nachbereitung der Veranstaltung zusammen mit der Prüfungsvorbereitung 135 Stunden zur Verfügung.
|
Empfohlene Voraussetzungen (Module):
Keine.
|
Als Vorkenntnis empfohlen für Module:
MASCM-DB-310 Master-Abschlussarbeit MASCM-DB-320 Master-Colloquium
[letzte Änderung 12.01.2025]
|
Modulverantwortung:
Prof. Dr. Stefan Selle |
Dozent/innen: Prof. Dr. Stefan Selle Dozierende des Studiengangs
[letzte Änderung 12.01.2025]
|
Lernziele:
Nach der Teilnahme an diesem Modul sind die Studierenden in der Lage, • grundlegende Begriffe im Bereich Data Science und künstliche Intelligenz auseinanderzuhalten und zu erklären, • Zusammenhänge im Bereich Data Science und künstliche Intelligenz zu identifizieren, • den Referenz-Datenanalyseprozess zu verstehen und anzuwenden, • Datenanalyseverfahren und zugehörige Methoden anzuwenden und deren Ergebnisse zu bewerten, • in selbstorganisierten Teams zu arbeiten, • Arbeitsergebnisse zu verdichten und zu präsentieren, • Projektergebnisse zu kritisieren und einzuschätzen.
[letzte Änderung 12.01.2025]
|
Inhalt:
• Einführung & Grundbegriffe - Data Science, Data Literacy, Business Intelligence (BI), Data Warehouse (DWH), Data Mining (DM), Knowledge Discovery in Databases (KDD), Big Data, Predictive Analytics, Machine Learning (ML), Überwachtes Lernen (Supervised Learning), Nicht-überwachtes Lernen (Unsupervised Learning), Bestärkendes Lernen (Reinforcement Learning), Klassifikation, Regression, Clusteranalyse, Assoziationsanalyse, Künstliche Intelligenz (KI), Turing-Test, Datenschutz, Datensicherheit, Datenethik • Datengrundlagen & Datenanalyseprozess - Daten, Datentypen, Datenformate, Skalenniveaus, Datenqualität, Explorative Datenanalyse (EDA), Korrelationsanalyse, CRISP-DM, Business Understanding, Data Understanding, Data Preparation, Modeling, Evaluation, Deployment • Modellierung & Auswertung - k-Nearest Neighbor, Test-Design, Partitionierung, Sampling, Kreuzvalidierung, Stratifiziertes Sampling, Min-Max-Normierung, Manhattan-Distanz, Euklidische Distanz, Gütemaße, Genauigkeit, Konfusionsmatrix, Spezifität & Sensitivität, Präzision & Recall, F-Maß, Receiver Operating Characteristic (ROC), Area under ROC curve (AURC) • Datenvorbereitung - Feature Engineering, One Hot Encoding, Binning, Skalierungen, Standardisierung, Transformation, Textoperationen, Fluch der Dimensionalität, Overfitting, Rauschen • Klassifikationsmethoden - Naive Bayes, Entscheidungsbäume, Support Vector Machine, Logistische Regression, Ensemble Learning [Random Forest, Gradient Boosted Trees] • Regressionsmethoden - Interpolation vs. Extrapolation, Prognose, Regressionsanalyse vs. Korrelationsanalyse, Korrelationskoeffizient, Anscombe-Quartett, Methode der kleinsten Quadrate, Bestimmtheitsmaß, Fehlermaße [MSE, RMSE, MAE, MAPE], lineare Regression, polynomiale Regression, Regularisierung, Ridge, LASSO, Elastic-Net, CART • Künstliche Neuronale Netze - Perzeptron, Aktivierungsfunktion, Multilayer-Perzeptron, Backpropagation, Gradientenverfahren, Resilient Backpropagation (RProp), Deep Learning, Convolutional Neural Network (CNN), Recurrent Neural Network (RNN), Long Short-Term Memory (LSTM), Transformer
[letzte Änderung 12.01.2025]
|
Weitere Lehrmethoden und Medien:
Inverted / Flipped Classroom durch E-Learning-Unterstützung (z.B. LMS Moodle): Speziell aufbereitete Unterlagen (z.B. Skript) / Medien (z.B. Videos) zum Selbststudium zu Fach- und Methodenwissen. Laborpraktikum mit Übungen: Selbstständiges Arbeiten am PC zur Lösung konkreter Aufgabenstellungen mit betriebswirtschaftlichem Bezug durch Anwendung gelernter Methoden mit Hilfe geeigneter Werkzeuge (z.B. KNIME Analytics Platform). Projektarbeit: Fallstudien werden in selbstorganisierten Teams bearbeitet, die Ergebnisse präsentiert, diskutiert und reflektiert (z.B. durch das Führen eines Projekttagebuchs im E-Portfolio Mahara).
[letzte Änderung 12.01.2025]
|
Literatur:
• Tom Alby: Data Science in der Praxis: Data Science in der Praxis - Eine verständliche Einführung in alle wichtigen Data-Science-Verfahren. Rheinwerk Computing, Bonn, 2022 • Udo Bankhofer und Jürgen Vogel: Datenanalyse und Statistik – Eine Einführung für Ökonomen im Bachelor. Gabler Springer Verlag, Wiesbaden, 2008 • Michael R. Berthold, Christian Borgelt, Frank Höppner, Frank Klawonn, Rosario Silipo: Guide to Intelligent Data Science – How to Intelligently Make Use of Real Data. 2nd edition, Springer, Berlin, 2020 • Ian Goodfellow, Yoshua Begnio, Aaron Courville: Deep Learning. The MIT Press, Cambridge (MA), 2016 • Joel Grus: Einführung in Data Science: Grundprinzipien der Datenanalyse mit Python. 2. Auflage, O’Reilly / dpunkt Verlag, Heidelberg, 2019 • Uwe Haneke, Stephan Trahasch, Michael Zimmer, Carsten Felden: Data Science – Grundlagen, Architekturen und Anwendungen. dpunkt Verlag, Heidelberg, 2019 • Steffen Herbold: Data-Science-Crashkurs – Eine interaktive und praktische Einführung. dpunkt Verlag, Heidelberg, 2022 • Annalyn Ng und Kenneth Soo: Data Science – Was ist das eigentlich?! – Algorithmen des maschinellen Lernens verständlich erklärt. Springer Verlag, Berlin, 2018 • Forster Provost & Tom Fawcett: Data Science for Business - What you need to know about Data Mining and Data-Analytic Thinking. O’Reilly Verlag, Sebastopol, 2013. • Thomas A. Runkler: Data Mining – Methoden und Algorithmen intelligenter Datenanalyse. Vieweg+Teubner Verlag, Wiesbaden, 2010 • Ian H. Witten, Eibe Frank, Mark A. Hall, Christopher J. Pal: Data Mining – Practical Machine Learning Tools and Techniques. 4th edition, Morgan Kaufmann, Burlington, 2016
[letzte Änderung 12.01.2025]
|