Keystone logo
OBS Business School Master in Big Data und Analytik
OBS Business School

Master in Big Data und Analytik

Online

12 Months

Spanisch

Vollzeit, Teilzeit

Antragsfrist beantragen

Apr 2025

EUR 7.500

Fernunterricht

Einführung

Master in Big Data und Analytik

Online-Master in Big Data und Analytik

Der Master in Big Data und Analytics entstand als Ergebnis der Vereinigung der umfassenden Erfahrung in Ausbildung und Forschung auf dem Gebiet der Technologie, die die UPC auszeichnet, und der Anerkennung und Akkreditierung auf nationaler und internationaler Ebene international; und die Erfahrung in Online-Schulungen mit technologischem und wirtschaftlichem Schwerpunkt von OBS .

Anhand der Struktur des Masters in Big Data und Analytics können die Studierenden erkennen, wann die Art der Big Data-Lösungen der Organisation helfen und deren Implementierung steuern kann.

Während des gesamten Programms sind drei große Blöcke zu sehen:

  • Block I. Verwaltung und Lagerung.
  • Block II Prozesse und Analysen.
  • Block III Visualisierung und Business.

Während des Programms wird das Wissen über technologische Lösungen auf praktische Weise angewendet, da es das Ziel ist, den Studenten näher an die aktuelle Technologie auf dem Markt heranzuführen, um sie zu berühren und ihre Anwendbarkeit zu erkennen.

Karrierechancen

In OBS wir uns verpflichtet, als Motor für Veränderung, Wachstum und Verbesserung sowohl auf persönlicher als auch auf beruflicher OBS auszubilden. Die Anwendung der entwickelten Kompetenzen im Berufsfeld während des gesamten Programms wird zum Wachstum und zur Verbesserung der Studenten sowie ihrer Unternehmen beitragen.

Die digitale Transformation von Unternehmen ist Realität und impliziert Veränderungen in ihren unterschiedlichen Funktionsbereichen. Aus diesem Grund müssen Fachleute darauf vorbereitet sein, die neuen Werkzeuge zu nutzen, die das neue technologische Umfeld bietet.

Professionelle Ausflüge sind in folgende Gruppen unterteilt:

  • Verantwortlich für Big Data-Projekte und erweiterte Geschäftsanalysen.
  • Externer Berater
  • Leiter Infrastruktur Big Data Analytics im Bereich ICT.
  • Chief Data Officer
  • Datenanalyst

Ziele

Mit einem Ökosystem von 1.000 Big Data-Lösungen in einem sich wandelnden Markt, der Jahr für Jahr wächst, ist es erforderlich, die Grundlagen der Architekturen kontinuierlich anzupassen und korrekt zu definieren, jedoch stets unter dem Dach der Geschäftserwartungen.

Das große Datenvolumen, die Vielfalt und die Geschwindigkeit werden nicht mehr als die Verschwendung von Ressourcen eines Unternehmens bedeuten, bei dem nicht klar ist, was es lösen möchte. Das Wissen, warum und was ein Unternehmen erwartet (Kostenreduzierung oder Umsatzsteigerung), ist daher ein entscheidender Faktor für die Rentabilität eines Big-Data-Projekts.

Der Master in Big Data und Analytics bietet einen praxisnahen und konsequenten Ansatz, der auf die Implementierung der Big Data-Technologie mit Erfolgsgarantien ausgerichtet ist.

Allgemeines Ziel

Das allgemeine Ziel des Master in Big Data und Analytics besteht darin, das erforderliche Wissen für die Verwaltung eines Big Data-Projekts unter allen Aspekten bereitzustellen, angefangen von der Ermittlung der Opportunity in einer Organisation bis hin zu den Ergebnissen für die Geschäftsbereiche.

Der Master in Big Data und Analytics konzentriert sich auf mehr als eine Lösung. Das Ziel besteht darin, dass der verantwortliche Fachmann feststellen kann, ob eine Organisation einer Big-Data-Herausforderung gegenübersteht, und einen definierten Prozess für die folgenden Schritte hat: Identifizieren der Art der zu übernehmenden Lösungen; die Berufsprofile, die Sie benötigen; Erstellen Sie einen Wirtschaftlichkeitsplan und verfügen Sie über die Grundlagen für die Verwaltung der Skalierbarkeit.

Einzelziele

Das Curriculum des Master in Big Data und Analytics soll die folgenden spezifischen Ziele erreichen:

  • Verstehen Sie, wie Sie eine herkömmliche Organisation mithilfe des Konzepts der Datenanalyse oder Big Data Analytics in eine datengetriebene Organisation verwandeln können.
  • Kennen Sie die wichtigsten technologischen Rahmenbedingungen des Marktes und seine Hauptanwendungen: Hadoop, Spark, Neo4j.
  • Identifizieren Sie die verschiedenen Arten von Informationen, deren Speicherung und Qualitätsprozesse.
  • Verstehen, wie Wissen aus den Daten extrahiert wird, um Vorhersagemodelle mithilfe von Vorhersagestatistiken und maschinellem Lernen zu generieren.
  • Beherrschen Sie die Techniken der Datenverwaltung: Erfassung, Speicherung, Verarbeitung, Analyse, Visualisierung.
  • Entdecken Sie die neuen Dashboard-Visualisierungstechniken, um die Entscheidungsfindung zu verbessern.

Lehrplan

Block I. Verwaltung und Lagerung

Big Data Leveling-Kurs

Parallel zu Modul 1 beginnen die Studierenden das Big Data- und Analytics-Programm mit diesem Leveling-Kurs, der die technischen Grundlagen für die Durchführung des Programms und die Durchführung von Big Data-Projekten bietet. In diesem Kurs finden die Studenten materielle Ressourcen, die es ihnen ermöglichen, sich in verschiedenen Fächern zu vertiefen, die für das Follow-up des Kurses erforderlich sind, und legen Prüfungen ab, die als Leitfaden für die Bewertung ihrer Kenntnisse und die abschließende Bewertung des Kurses dienen.

Modul 1. Big Data Analytics-Management

In diesem Modul werden die grundlegenden Konzepte von Big Data vorgestellt, um zu wissen, wie die Schlüssel jedes Projekts und die Skalierbarkeit identifiziert werden. Indem wir vor dem Start die Variabilität der Daten, die Volumetrie und die Geschwindigkeit ermitteln, können wir ermitteln, welche Phasen vor dem Start eines Big-Data-Projekts ausgeführt werden sollten, und vor allem, welchen Ertrag erwarten wir vom Projekt? Welche Erwartungen hat das Geschäft?

Ziele:

  • Identifizieren Sie, wann ein Projekt Big Data ist.
  • Finden Sie den ROI in einem Big Data-Projekt.
  • Verstehen und Anwenden der Konzepte von Dark Data und Open Data.
  • Führen Sie die Organisation zu einer datengetriebenen Organisation und unterstützen Sie das Projekt.
  • Kennen Sie die Rechtmäßigkeit der Daten.
  • Definieren Sie die Abbildung von Data Science innerhalb einer Organisation.

Modul 2. Big Data-Architektur

Das Ökosystem der Big-Data-Lösungen wird so groß sein wie die Datentypologien und die Prozesskapazität, die wir für das Projekt benötigen. Die meisten von ihnen konzentrieren sich auf Skalierbarkeit und Vielfalt und basieren hauptsächlich auf Cloud-Umgebungen. Einige Unternehmen möchten ihre wichtigsten Daten nicht in die Cloud hochladen und möchten sie lieber intern haben, andere bevorzugen 100% Cloud- oder Hybridumgebungen.

In diesem Modul werden wir die PROs und NOCs jeder Architektur, die Hauptlösungsanbieter und die Art und Weise, wie wir die elastischsten Umgebungen erstellen können, herausfinden und dabei stets nach der effizientesten Architektur in Bezug auf Lösungen und Kosten suchen.

Ziele:

  • Entdecken Sie die Typologien von On-Premise-, Hybrid- und On-Cloud-Architekturen.
  • Verstehen Sie die Rolle von Hadoop und HDFS als Grundlagen für die Parallelisierung von Prozessen.
  • Wissen, was Funken ist und das Ökosystem Hive, Pig, Sqoop und Flume.
  • Identifizieren Sie die Vorteile von Kubernetes und Databricks.

Modul 3. ETLs und ELTs

Die Informationen können aus Quellen außerhalb der Organisation (soziale Netzwerke, offene Daten ua) und aus internen Datenbanken (CRMs, ERPs, Transaktionsdaten ua) bezogen werden. Alle diese Daten müssen vor oder nach dem Lesen transformiert werden, um sie später durch Aggregationsprozesse zu verarbeiten, mit denen wir KPIs erhalten können.

Zu diesem Zeitpunkt müssen wir Qualitätsregeln definieren, um sicherzustellen, dass die Daten korrekt sind und unseren Data Lake nicht verarmen.

In diesem Modul lernen wir, die Grundlagen zu definieren, die jeder Datenladeprozess haben muss, um Integrität, Bereinigung, Historisierung und Rekursion in Ladevorgängen zu gewährleisten.

Ziele:

  • Verstehen Sie den Unterschied zwischen ETLs und ELTs.
  • Verstehen Sie die Vorteile von ETL-Prozessen.
  • Identifizieren Sie KPIs für MDM.
  • Integrieren Sie die verschiedenen Systeme.
  • In der Lage sein, die Verwendung von Ausnahmen zu verwalten.
  • Verstehen Sie den Unterschied zwischen Data Lake und Data Warehouse.

Modul 4. Data Lakes

Das Registrieren großer Informationsmengen erfordert andere Datenbanktypen als die relationalen mit einem traditionelleren Ansatz. Beispielsweise sind Videos, Routen oder kritische Pfade, Dokumente oder soziale Netzwerke immer häufiger Datenquellen unter den Informationsquellen, die ein Unternehmen interessieren.

Der Technologiemarkt hat sich auf sie alle eingestellt und Lösungen geschaffen, um sie optimal speichern und nutzen zu können. In diesem Modul werden die Vor- und Nachteile des Moduls herausgearbeitet und kleine Übungen durchgeführt, um das Potenzial des Moduls auszuloten.

Ziele:

  • Kennen Sie die relationalen Datenbanken vs NOSQL.
  • Kennen Sie die Säulendatenbanken.
  • Kennen Sie die Graph-Datenbanken. Neo4j.
  • Kennen Sie die Dokumentendatenbanken.
  • Entdecken Sie Datenquellen außerhalb des Unternehmens, um unseren Data Lake zu bereichern.
  • Verstehen Sie die Rolle von Datenströmen bei der Entscheidungsfindung in Echtzeit.

Block II Prozesse und Analyse

Modul 5. Data Mining

In diesem Modul lernen wir, Informationen aus dem Datensatz Data Lake zu extrahieren und vor allem interpretierbar zu machen. Während des gesamten Prozesses müssen wir uns über die Geschäftsziele im Klaren sein, die Tools, mit denen wir die Daten bereinigen, die besseren mathematischen Modelle ermitteln und die Ergebnisse qualifizieren können.

Ziele:

  • Wählen Sie aus den verfügbaren Daten den Datensatz aus, der die Geschäftsfrage am besten lösen kann.
  • Transformieren Sie den Eingabedatensatz.
  • Wählen Sie die am besten geeignete Data Mining-Technik aus, z. B. neuronale Netzwerke, Entscheidungsbäume, Clustering oder Zuordnungsregeln.
  • Verstehen Sie den Prozess der Wissensgewinnung.
  • Interpretieren und bewerten Sie die Daten.

Modul 6. Erweiterte Analyse: R und Python

Sobald wir die richtigen Daten haben, wird es Zeit, das Wissen zu extrahieren, zu interpretieren und es auf ein neues Niveau zu heben. In diesem Modul erstellen wir eine kleine statistische Basis für die Arbeit mit zwei der wichtigsten Advanced Analytics-Tools auf dem Markt: R und Python. Mit ihnen werden kleine Übungen durchgeführt, um herauszufinden, wann sie verwendet werden müssen, und um das maximale Potenzial aus den Daten zu ziehen.

Ziele:

  • Kennen Sie die Grundlagen von Statistiken und die Berechnung von Wahrscheinlichkeiten.
  • Wenden Sie eine multivariate Datenanalyse an.
  • Verstehen und Anwenden der Zeitreihen
  • Verstehen Sie den Prozess der statistischen Kontrolle der Datenqualität.
  • Berechnen Sie Korrelationen und Muster.
  • Kennen Sie den Prozess des Clusters der Daten.

Modul 7. Maschinelles Lernen

In den vorherigen Modulen haben wir gesehen, wie man die vorhandenen Daten interpretiert, wie man das Wissen über alles extrahiert, was mit uns passiert ist. In diesem Modul werden wir uns dem maschinellen Lernen nähern, um zu sehen, wie wir uns mit guten Informationen den Prädiktoren nähern können. Wir werden die wichtigsten Techniken und Marktwerkzeuge entdecken, welche Art und Menge von Informationen erforderlich sind, und wir werden kleine praktische Module durchführen, um ihre Anwendbarkeit zu überprüfen.

Ziele:

  • Verstehen Sie den Unterschied zwischen überwachtem und unbeaufsichtigtem Lernen.
  • Kennen Sie die verschiedenen Klassifikationstechniken, von Entscheidungsbäumen bis zu Bayes'schen Techniken.
  • Verstehen Sie das Konzept des maschinellen Lernens.
  • Identifizieren Sie die wichtigste Open Source- und kommerzielle Software.

Block III Visualisierung und Business

Modul 8. Data Governance.

Sobald wir alle Informationen haben, müssen wir die Verwendungsregeln definieren: Wer kann die Daten sehen, die Definition der einzelnen Daten, die Herkunft und den Benutzern die Werkzeuge zur Interpretation zur Verfügung stellen.

Bei der Daten-Governance scheitern viele Unternehmen. Zwei unterschiedliche Werte für denselben oder vorausschauenden KPI führen zu Misstrauen zwischen verschiedenen Geschäftsbereichen.

In diesem Modul lernen wir die Information Governance-Techniken zur Aufrechterhaltung von Integrität, Sicherheit und Rückverfolgbarkeit kennen, um sicherzustellen, dass die Daten dazu beitragen, sichere Entscheidungen zu treffen, ohne Misstrauen zu erzeugen.

Ziele:

  • Verstehen, wie die Zugänglichkeit von Daten ist.
  • Daten als Asset verwalten.
  • Stellen Sie die Integrität sicher.
  • Definieren Sie die wichtigsten KPIs und die Datenrückverfolgbarkeit.
  • Verstehen Sie das Konzept der Sicherheit.

Modul 9. Visualisierungstechniken

In diesem Modul erfahren Sie, welche Datenvisualisierungstechniken es gibt und wann Sie welche verwenden müssen. Die großen Datenmengen erfordern neue grafische Darstellungen, um sie zu interpretieren: Wärmekarten, Cluster, Dimensionen, kritische Pfade unter anderem.

Zusätzlich zu den Grafiken ist es wichtig, die Bewertung mit jedem von ihnen zu verknüpfen und eine Interpretation zu generieren. Indikatoren können die Entscheidungsfindung verwirren und behindern. Indem sie sie ausrichten, in einen Kontext stellen und unterwerfen, tragen sie zu einer besseren Interpretation bei:

Ziele:

  • Entdecken Sie die verfügbaren Grafiktypen.
  • Kennen Sie die Anwendungsfälle und ihre wichtigsten grafischen Darstellungen und verstehen Sie den Prozess, der mit der Übergabe der Grafiken an das Business Story Telling verbunden ist.
  • Wissen, wie Sie Daten für Adress-Dashboards vereinfachen und hinzufügen können.

Modul 10. Datenvisualisierungs- und Self-Service-Tools

Da das Ökosystem der Visualisierungstools komplex ist, ist es wichtig, für jeden Organisationstyp das am besten geeignete auszuwählen. Wir müssen bedenken, dass wir in einer Organisation die Technologie vereinfachen und eine Lösung für die gesamte Organisation finden müssen. Nur so können wir auf einfache Weise die Sicherheit, Zugänglichkeit und Verfügbarkeit derselben KPIs gewährleisten.

Self-Service ist ein zentrales Element in großen Organisationen mit Delegationen, Niederlassungen usw. Mit diesem Modul können Sie die Informationen dezentralisieren und jeden Knoten der Organisation autonom machen. In diesem Modul werden die wichtigsten Tools für Datenvisualisierung und Self-Service vorgestellt.

Ziele:

  • Identifizieren Sie die wichtigsten Marktwerkzeuge: Qlikview / sense, Tableau, PowerBI, Cognos.
  • Kennen Sie die Stärken und Schwächen eines jeden.
  • Erstellen Sie eine Fallstudie mit Qliksense- und Self-Service-Daten.

Abschlussprojekt

Während des Final Master Project (PFM) wird der Student Hand in Hand mit einem echten Unternehmen an der Entwicklung eines Projekts arbeiten. Dies wird die Option haben, dies für Ihr eigenes Unternehmen zu tun oder zwischen den von der Schule vorgeschlagenen Optionen zu wählen.

Die vorgeschlagenen Projekte können zwei Ansätze haben, Business und / oder Technological, und innerhalb dieser Ansätze können mehrere Formen annehmen, einige Beispiele sind:

Ansatz 1. Geschäft

  • Beispiel 1. Entwicklung des Geschäftsplans mit Ausrüstung, Infrastruktur und Geschäftsergebnissen in einem theoretischen Geschäftsfall mit verschiedenen Arten von Daten.
  • Beispiel 2. Business Consulting Projekt eines realen Business Case.

Schwerpunkt 2. Technologisch

  • Beispiel 1. Entwicklung von Business Dashboards mit einem Markttool mit verschiedenen Arten von Daten und Definition von Indikatoren.

Werkstätten

Im Master in Big Data und Analytics hat der Student die Möglichkeit, 2 praktische Workshops durchzuführen. Diese Workshops sind:

Workshop 1. Neo4j

In diesem Workshop werden wir technisch wissen, wie die Graph-Datenbanken funktionieren. Wie Sie die Leistung nutzen können, die Sie zur Suche nach den am häufigsten verwendeten kritischen Pfaden und hierarchischen Wiederholungen vor relationalen Datenbanken beitragen.

Workshop 2. Watson

Die Lösungen zum Einrichten einer Umgebung für künstliche Intelligenz / maschinelles Lernen können verschiedene miteinander verbundene Open-Soucer-Produkte oder eine Lösung durchlaufen, die die Hauptprodukte des Marktes zusammenfasst und die Interoperabilität zwischen Versionen, automatischen Upgrades und Contracting als Service gewährleistet. Dies sind die Hauptvorteile von Watson. In diesem rein praktischen Workshop werden wir herausfinden, wie wir eine Umgebung für unsere Data Science bereitstellen können, in der wir Lösungen und Kosten steuern können.

Werkzeuge

Im Verlauf des Kurses werden wir uns den wichtigsten Marktlösungen in jeder der Schichten nähern, aus denen eine Big-Data-Lösung besteht. Die wichtigsten Lösungspartner (IBM, Amazon, Google Cloud, Azure), Datenbanken (Neo4J, HDFS, Cassandra, MongoDB), ETLs (Kafka, Pentaho, Powercenter), Präsentation (Tableau, Qlik) unter anderem.

Der Master versucht nicht, seine Schüler in jedem dieser Tools technologisch zu schulen, sondern sich aus theoretischer Sicht zu nähern, die Vor- und Nachteile der einzelnen Tools zu sehen und kleine Übungen durchzuführen, um die Funktionsweise aus erster Hand zu verstehen. Die Übungen sind einfach und leicht zu lösen und stehen nicht im Mittelpunkt, sondern sollen keine rein theoretischen Meister sein.

Master-Anforderungen

Studentenprofil und Zulassungsvoraussetzungen

Die Module des Programms richten sich an Fachleute aus allen Branchen, die ein Big-Data-Projekt in ihrem Unternehmen implementieren möchten, ermitteln, welche Arten von Projekten von diesem Typ sind, und definieren die beste Roadmap für das Projekt, um es erfolgreich zu lösen.

Die Ursprungsprofile sind:

  • Absolventen in technischen Ingenieurwissenschaften, ADE und Naturwissenschaften (Medizin, Mathematik, Physik, Chemie).
  • Fachleute, die im IKT-Sektor arbeiten.
  • Zwischenpositionen von Unternehmen, die angesichts zukünftiger Chancen in ihrem Unternehmen eine vorteilhafte Position einnehmen wollen.
  • Professionelle BI-Experten (Business Intelligence), die ihr Wissen erweitern möchten.
  • Technische Profile / Berater, die derzeit mit Daten arbeiten und eine End-to-End-Management-Vision haben möchten.

Titration

Nach Abschluss des Programms erhalten die Studierenden:

  • Ein Titel von drei Punkten.
  • Ein von der UPC anerkannter eigener Abschluss, wenn die Anforderungen der Universität am Ende des Programms erfüllt sind

Admissions

Lehrplan

Programmergebnis

Karrierechancen

Erfahrungsberichte von Schülern

Zulassungsvoraussetzungen für das Programm

Demonstrieren Sie Ihr Engagement und Ihre Bereitschaft, an einer Business School erfolgreich zu sein, indem Sie den GMAT-Test ablegen – den am häufigsten verwendeten Zulassungstest, der Ihr kritisches Denk- und Argumentationsvermögen misst.

Laden Sie das GMAT-Miniquiz herunter, um einen Eindruck von den Fragen zu bekommen, die Sie in der Prüfung finden werden.

Über die Schule

Fragen