Vom Use-Case zur Infrastruktur

AI einfach erklärt: Deepfake

Immer mehr Daten entstehen durch Digitalisierung, Produktion, Kundenbeziehungen, Transport, Sensordaten, Künstliche Intelligenz (AI) und connected Cars. Wer es schafft, diese meist unstrukturierten Informationen zu verarbeiten, kann einen erheblichen Wissensvorsprung gegenüber der Konkurrenz erzielen.
Mehr noch: Dank Big Data Analytics können zukünftig wichtige Schlussfolgerungen für das eigene Business gezogen werden.

AI einfach erklärt: Deepfake

Noch schneller zur Erkenntnis - Mit Data Science und Künstlicher Intelligenz

Dank Künstlicher Intelligenz und Deep Learning können wir mittlerweile Daten in einer nie gekannten Geschwindigkeit analysieren. Auf diese Weise gewinnen wir Erkenntnisse innerhalb weniger Minuten, deren Auswertung vorher Tage, Wochen oder sogar Monate gedauert hätte. Was wir dabei aber nicht vergessen dürfen: Die Künstliche Intelligenz orientiert sich an den menschlichen Vorgaben. Sind diese unbewusst fehlerhaft, so schlägt sich das auch auf das Ergebnis nieder.

#team-netapp

Auf dem Weg zur Erkenntnis

  • Welche Strategie sollten wir verfolgen?
  • Welche Produkte werden morgen im Trend sein?
  • Welche Maschinen werden demnächst ausfallen?
  • Welche Prozesse sind ineffizient und müssen optimiert werden?

 

Eins ist sicher: Aus Big Data können wertvolle Erkenntnisse gewonnen werden. Doch damit das auch möglich wird, benötigen Unternehmen eine leistungsstarke Infrastruktur, die in der Lage ist, diese „Datenschätze“ zu heben. Viele Unternehmen setzen bereits auf die Cloud, um Prototypen neuer Projekte schnell erstellen zu können und AI-Daten am Entstehungsort einsammeln und im eigenen Rechenzetrum ablegen oder weiterverabeiten zu können.

Deep Fakes - Die Macht der Daten

Haben Sie schon von Deep Fakes gehört? Der Begriff setzt sich zusammen aus „Deep Learning“, dem maschinellen Lernen und „Fake“, was Fälschung bedeutet. Bei Deep Fakes agieren Personen vor der Kamera, aber ihr gesamtes Aussehen wird neuberechnet, damit sie wie jemand anderes aussehen und sprechen: z. B. Donald Trump, Michael Caine, Al Gore, Mark Zuckerberg oder Barack Obama. Mittels Deep Learning werden riesige Datenmengen von Personen gesammelt – Videos, Fotos, Audio – und ausgewertet. Je mehr Daten vorliegen, desto besser kann ein Deep Fake erzeugt werden. Viele dieser Fakes sehen mittlerweile täuschend echt aus und Laien sind nicht mehr in der Lage, den künstlichen Doppelgänger vom Original zu unterscheiden.

Wie gefährlich Deep Fakes sein können und welche Verantwortung daraus erwächst, konnte schon 2015 beobachtet werden als dem griechischen Finanzminister Varoufakis der gehobene Mittelfinger in ein Video reinkopiert wurde. Politisch wurde daraus ein Skandal. Selbst die Beteuerung Jan Böhmermanns, er sei für diesen Fake verantwortlich, wollten nur die wenigsten glauben.

Big Data - Mehr Segen als Fluch

Welche Verantwortung mit der Nutzung von Big Data einhergeht, konnten wir sehen. Was man dabei aber auch berücksichtigen sollte: Big Data und Künstliche Intelligenz können viele technologische Innovationen vorantreiben und Prozesse vereinfachen, die normalerweise langwierig und zeitaufwändig sind. Die Zeit ist somit reif für Big Data und Künstliche Intelligenz. Das haben auch die großen Cloud-Anbieter erkannt. Sie bieten entsprechende cloud-basierte KI-Services und -Plattformen, die sich einfach buchen und integrieren lassen.

Herausforderungen bei der KI-Infrastruktur

Eine Integration in Eigenregie durchzuführen, ist ein komplexes Unterfangen. Die Zusammenstellung und Integration von Compute-, Storage-, Netzwerk- und Software-Standardkomponenten für DL kann die Komplexität erhöhen und die Implementierungszeiten verlängern. Dadurch verschwenden Datenwissenschaftler wertvolle Zeit auf die Systemintegration.

Es ist schwierig, vorhersehbare Performance zu erreichen, die skalierbar ist. Gemäß den Best Practices für DL sollten Unternehmen klein anfangen und ihre Ressourcen erst mit der Zeit skalieren. Traditionell wurden Computing und Direct-Attached Storage eingesetzt, um Daten in KI-Workflows einzuspeisen. Aber die Skalierung mit herkömmlichem Storage kann zu Unterbrechungen und Ausfallzeiten für die laufenden Vorgänge führen.

Unterbrechungen wirken sich auf die Produktivität der Datenanalysten aus. Bei der DL-Infrastruktur bestehen zahlreiche Abhängigkeiten zwischen Hard- und Software; zum Aufrechterhalten einer funktionierenden DL-Infrastruktur braucht man fundierte, umfassende KI-Kenntnisse. Ausfallzeiten oder eine langsame KI-Performance können eine Kettenreaktion auslösen, die die Entwicklerproduktivität in Mitleidenschaft zieht und die Betriebskosten unkontrolliert in die Höhe schnellen lässt.

NetApp und NVIDIA - Ein starkes Team

Jetzt können Sie das Versprechen von KI und DL vollständig verwirklichen – vereinfachen, beschleunigen und integrieren Sie Ihre Datenpipeline mit der NetApp ONTAP AI Proven Architecture, gestützt auf die Power von NVIDIA-DGX-Systemen und NetApp All-Flash-Storage mit Cloud-Integration. Mittels einer Data-Fabric-Architektur optimieren Sie den Weg der Daten zuverlässig zwischen ihrem Entstehungsort, dem Rechenzentrum und der Cloud und beschleunigen Analysen, Training und Inferenz.

NetApp und NVIDIA: Gemeinsam Innovation fördern

Herzstück von ONTAP AI ist das DGX A100 System als universeller Baustein für Datacenter-KI, der DLTraining, Inferenz, Data Science und andere High-Performance-Workloads über eine zentrale Plattform unterstützt. Jedes DGX A100 System verfügt über acht NVIDIA A100 Tensor Core GPUs sowie zwei AMD EPYC™ Prozessoren der zweiten Generation. Die neuesten ultraschnellen NVIDIA-Mellanox- ConnectX-6-Interconnects mit Kompatibilität zu 100/200-Gb-Ethernet und InfiniBand sind integriert. Mehrere kleinere Workloads lassen sich beschleunigen, indem das DGX A100 System dank neuester GPU-Multiinstanztechnologie von NVIDIA in bis zu 56 Instanzen pro System partitioniert wird. Durch diese Beschleunigung ist die GPUPerformance in ONTAP AI extrem effizient zuweisbar. Damit können Datenwissenschaftler überall in Ihrem Unternehmen schnellere Iterationen durchführen, die Reproduzierbarkeit automatisieren und KI-Projekte bei höherer Qualität bis zu drei Monate früher abschließen.

 

NetApp All Flash FAS Systeme liefern schnellen und flexibelen All-Flash-Storage auf Basis von End-to-End-NVMe-Technologien, um den Datenfluss zu DL Prozessen aufrechtzuerhalten. Integriert in die ONTAP AI Lösung sind Mellanox Spectrum Ethernet-Switches, die die in KIUmgebungen geforderte niedrige Latenz, hohe Dichte, hohe Performance und Energieeffizienz bieten.

Darum NetApp für Künstliche Intelligenz

Die Nutzung von KI-Technologie erzeugt sehr große Datenmengen, die ungehindert durch eine fünfstufige Pipeline transportiert werden müssen.  Der kleinste Engpass bremst sofort das gesamte Projekt aus. Aus diesem Grund bietet das Zusammenspiel aus NetApp ONTAP AI, NVIDIA DGX-Servern und Cloud-vernetztem All-Flash-Storage von NetApp höchste KI-Performance – von der Datenerzeugung über die Analyse bis hin zur Archivierung.

Die wichtigsten Vorteile
  • Geringere Risiken dank flexibler validierter Lösungen
  • Designkomplexität und Unsicherheiten eliminieren
  • Konfiguration und Implementierung durchverfügbare vorkonfigurierte
  • Lösungen optimieren
  • Passende Performance und Skalierbarkeit
  • Klein beginnen und unterbrechungsfrei wachsen
  • Daten mit einer integrierten Pipeline zwischen Entstehungsort, Rechenzentrum und Cloud
  • Intelligent managen
  • Auf KI-Fachwissen und einfache Support-Optionen gestützte Lösung implementieren
  • Vereinheitlichte KI-Workloads

  • Infrastruktursilos beseitigen

  • Flexibel auf Geschäftsanforderungen reagieren

Sie haben Fragen?

Falls Sie mehr zu diesem Thema erfahren möchten, freue ich mich über Ihre Kontaktaufnahme.

Zum Kontaktformular
Marc Riedel
Partner Manager