AI einfach erklärt: Deepfake

Vom Use Case zur Infrastruktur

Es entstehen immer mehr Daten durch Digitalisierung, Produktion, Kundenbeziehungen, Transport, Sensordaten, künstliche Intelligenz (AI) und Connected Cars. Wer es schafft, diese meist unstrukturierten Informationen zu verarbeiten, kann einen erheblichen Wissensvorsprung gegenüber der Konkurrenz erzielen.

Mehr noch: Dank Big Data Analytics können zukünftig wichtige Schlussfolgerungen für das eigene Business gezogen werden.

AI einfach erklärt: Deepfake

#team-netapp

Auf dem Weg zur Erkenntnis

  • Welche Strategie sollten wir verfolgen?

  • Welche Produkte werden morgen im Trend sein?

  • Welche Maschinen werden demnächst ausfallen?

  • Welche Prozesse sind ineffizient und müssen optimiert werden?

 

Eins ist sicher: Aus Big Data können wertvolle Erkenntnisse gewonnen werden. Doch damit das auch möglich wird, benötigen Unternehmen eine leistungsstarke Infrastruktur, die in der Lage ist, diese „Datenschätze“ zu heben.

 

Viele Unternehmen setzen bereits auf die Cloud, um Prototypen neuer Projekte schnell erstellen und AI-Daten am Entstehungsort einsammeln und im eigenen Rechenzentrum ablegen oder weiterverarbeiten zu können.

Noch schneller zur Erkenntnis - Mit Data Science und Künstlicher Intelligenz

Dank künstlicher Intelligenz und Deep Learning können wir mittlerweile Daten in einer nie gekannten Geschwindigkeit analysieren. Auf diese Weise gewinnen wir Erkenntnisse innerhalb weniger Minuten, deren Auswertung vorher Tage, Wochen oder sogar Monate gedauert hätte. Was wir dabei aber nicht vergessen dürfen: Die künstliche Intelligenz orientiert sich an menschlichen Vorgaben. Sind diese unbewusst fehlerhaft, so schlägt sich das auch auf das Ergebnis nieder.

Deep Fakes - Die Macht der Daten

Haben Sie schon von Deep Fakes gehört? Der Begriff setzt sich zusammen aus „Deep Learning“, dem maschinellen Lernen, und „Fake“, was Fälschung bedeutet. Bei Deep Fakes agieren Personen vor der Kamera, aber ihr gesamtes Aussehen wird neuberechnet, damit sie wie jemand anderes aussehen und sprechen: z.B. Donald Trump, Michael Caine, Al Gore, Mark Zuckerberg oder Barack Obama. Mittels Deep Learning werden riesige Datenmengen von Personen gesammelt – Videos, Fotos, Audio – und ausgewertet. Je mehr Daten vorliegen, desto besser kann ein Deep Fake erzeugt werden. Viele dieser Fakes sehen mittlerweile täuschend echt aus und Laien sind nicht mehr in der Lage, den künstlichen Doppelgänger vom Original zu unterscheiden.

Wie gefährlich Deep Fakes sein können und welche Verantwortung daraus erwächst, konnte schon 2015 beobachtet werden, als dem griechischen Finanzminister Varoufakis der gehobene Mittelfinger in ein Video kopiert wurde. Politisch wurde daraus ein Skandal. Selbst die Beteuerung Jan Böhmermanns, er sei für diesen Fake verantwortlich, wollten nur die wenigsten glauben.

Big Data - Mehr Segen als Fluch

Welche Verantwortung mit der Nutzung von Big Data einhergeht, ist uns nun bewusst. Was man dabei aber auch berücksichtigen sollte: Big Data und künstliche Intelligenz können viele technologische Innovationen vorantreiben und Prozesse vereinfachen, die normalerweise langwierig und zeitaufwändig sind. Die Zeit ist somit reif für Big Data und künstliche Intelligenz. Das haben auch die großen Cloud-Anbieter erkannt. Sie bieten entsprechende cloudbasierte AI-Services und -Plattformen, die sich einfach buchen und integrieren lassen.

Herausforderungen bei der AI-Infrastruktur

Eine Integration in Eigenregie durchzuführen, ist ein komplexes Unterfangen. Die Zusammenstellung und Integration von Compute-, Storage-, Netzwerk- und Software-Standardkomponenten für DL kann die Komplexität erhöhen und die Implementierungszeiten verlängern. Dadurch verschwenden Datenwissenschaftler wertvolle Zeit auf die Systemintegration.

 

Es ist schwierig, eine vorhersehbare Performance zu erreichen, die skalierbar ist. Gemäß den Best Practices für DL sollten Unternehmen klein anfangen und ihre Ressourcen erst mit der Zeit skalieren. Traditionell wurden Computing und Direct-Attached Storage eingesetzt, um Daten in AI-Workflows einzuspeisen. Aber die Skalierung mit herkömmlichem Storage kann zu Unterbrechungen und Ausfallzeiten bei den laufenden Vorgängen führen.

 

Unterbrechungen wirken sich auf die Produktivität der Datenanalysten aus. Bei der DL-Infrastruktur bestehen zahlreiche Abhängigkeiten zwischen Hard- und Software; zum Aufrechterhalten einer funktionierenden DL-Infrastruktur braucht man fundierte, umfassende AI-Kenntnisse. Ausfallzeiten oder eine langsame AI-Performance können eine Kettenreaktion auslösen, die die Entwicklerproduktivität in Mitleidenschaft zieht und die Betriebskosten unkontrolliert in die Höhe schnellen lässt.

NetApp und NVIDIA - Ein starkes Team

Jetzt können Sie das Versprechen von AI und DL vollständig verwirklichen – vereinfachen, beschleunigen und integrieren Sie Ihre Datenpipeline mit der NetApp ONTAP AI Proven Architecture, gestützt auf die Power von NVIDIA-DGX-Systemen und NetApp All-Flash-Storage mit Cloud-Integration. Mittels einer Data-Fabric-Architektur optimieren Sie den Weg der Daten zuverlässig zwischen ihrem Entstehungsort, dem Rechenzentrum und der Cloud und beschleunigen Analysen, Training und Inferenz.

NetApp und NVIDIA: Gemeinsam Innovation fördern

Herzstück von ONTAP AI ist das DGX A100 System als universeller Baustein für Datacenter-AI, das DL-Training, Inferenz, Data Science und andere High-Performance-Workloads über eine zentrale Plattform unterstützt. Jedes DGX A100 System verfügt über acht NVIDIA A100 Tensor Core GPUs sowie zwei AMD EPYC™ Prozessoren der zweiten Generation. Die neuesten ultraschnellen NVIDIA-Mellanox- ConnectX-6-Interconnects mit Kompatibilität zu 100/200-Gb-Ethernet und InfiniBand sind integriert. Mehrere kleinere Workloads lassen sich beschleunigen, indem das DGX A100 System dank neuester GPU-Multiinstanztechnologie von NVIDIA in bis zu 56 Instanzen pro System partitioniert wird. Durch diese Beschleunigung ist die GPU-Performance in ONTAP AI extrem effizient zuweisbar. Damit können Datenwissenschaftler überall in Ihrem Unternehmen schnellere Iterationen durchführen, die Reproduzierbarkeit automatisieren und AI-Projekte bei höherer Qualität bis zu drei Monate früher abschließen.

 

NetApp All Flash FAS Systeme liefern einen schnellen und flexiblen All-Flash-Storage auf Basis von End-to-End-NVMe-Technologien, um den Datenfluss zu DL-Prozessen aufrechtzuerhalten. Integriert in die ONTAP AI Lösung sind Mellanox Spectrum Ethernet-Switches, die die in AI-Umgebungen geforderte niedrige Latenz, hohe Dichte, hohe Performance und Energieeffizienz bieten.

Darum NetApp für Künstliche Intelligenz

Die Nutzung von AI-Technologie erzeugt sehr große Datenmengen, die ungehindert durch eine fünfstufige Pipeline transportiert werden müssen. Der kleinste Engpass bremst sofort das gesamte Projekt aus. Aus diesem Grund bietet das Zusammenspiel aus NetApp ONTAP AI, NVIDIA DGX-Servern und cloudvernetztem All-Flash-Storage von NetApp höchste AI-Performance – von der Datenerzeugung über die Analyse bis hin zur Archivierung.

Die wichtigsten Vorteile
  • Geringere Risiken, dank flexibler, validierter Lösungen

  • Eliminierung von komplexen Designs und Unsicherheiten

  • Optimierte Konfiguration und Implementierung durch verfügbare, vorkonfigurierte Lösungen

  • Passende Performance/Leistung und Skalierbarkeit

  • In kleinem Maßstab beginnen und von unterbrechungsfreiem Wachstum profitieren

  • Intelligente Verwaltung von Daten mittels einer integrierten Pipeline zwischen Entstehungsort, Rechenzentrum und Cloud

  • Implementierung einer auf AI-Fachwissen und einfache Support-Optionen gestützten Lösung

  • Vereinheitlichte Workloads

  • Beseitigung von Infrastruktursilos

  • Flexible Reaktion auf Geschäftsanforderungen

Sie haben Fragen?

Falls Sie mehr zu diesem Thema erfahren möchten, freue ich mich über Ihre Kontaktaufnahme.

Zum Kontaktformular
Jonathan Plesch
Jonathan Plesch
Partner Manager