openPR Recherche & Suche
Presseinformation

Akamai verbessert KI-Anwendungen mit der Einführung von Akamai Cloud Inference

27.03.202513:18 UhrIT, New Media & Software

(openPR) Neuer Service ermöglicht Unternehmen eine Verbesserung des Durchsatzes um das Dreifache, 60 Prozent weniger Latenz und 86 Prozent niedrigere Kosten im Vergleich zu traditionellen Hyperscalern.

Cambridge, Massachusetts (USA) / München - 27. März 2025 | Akamai (NASDAQ: AKAM), führender Anbieter für Cybersicherheit und Cloud Computing, präsentierte heute Akamai Cloud Inference. Diese Lösung fördert eine schnellere und effizientere Innovationswelle für Organisationen, die Predictive und Large Language Models (LLMs) in praktische Anwendungen umsetzen wollen. Akamai Cloud Inference läuft auf der Akamai Cloud, der weltweit am weitesten verteilten Plattform, um die zunehmenden Einschränkungen zentralisierter Cloud-Modelle zu adressieren.



"KI-Daten näher an Benutzer und Geräte zu bringen, ist eine Herausforderung, an der herkömmliche Cloud-Systeme oft scheitern", erläutert Adam Karon, Chief Operating Officer und General Manager der Cloud Technology Group bei Akamai. "Während das aufwendige Training von LLMs weiterhin in großen Hyperscaler-Rechenzentren stattfindet, verlagert sich die praktische Arbeit des Inferencing an die Edge. Hier kommt das Netzwerk zum Tragen, das Akamai in den letzten zweieinhalb Jahrzehnten aufgebaut hat. Es wird für die Zukunft der KI entscheidend sein und unterscheidet uns von jedem anderen Cloud-Anbieter im Markt."

KI-Inferenz auf der Akamai Cloud

Akamais neue Lösung bietet Platform Engineers und Entwicklern Werkzeuge zum Aufbau und Betrieb von KI-Anwendungen und datenintensiven Workloads nahe am Endnutzer. Dies ermöglicht einen dreifach höheren Durchsatz bei gleichzeitiger Reduzierung der Latenz um das bis zu zweieinhalbfache. Mit Akamais Lösung können Unternehmen bei KI-Inferenz und agentenbasierten KI-Workloads im Vergleich zu traditioneller Hyperscaler-Infrastruktur bis zu 86 Prozent der Kosten einsparen. Akamai Cloud Inference umfasst:

Rechenleistung: Die Akamai Cloud bietet ein vielseitiges Compute Portfolio, von klassischen CPUs für fein abgestimmte Inferenz bis hin zu leistungsstarken beschleunigten Rechenoptionen in GPUs und maßgeschneiderten ASIC VPUs. Dies gewährleistet die optimale Leistung für verschiedenste KI-Inferenz-Anforderungen. Akamai integriert sich in Nvidias AI Enterprise-Ökosystem und nutzt Triton, TAO Toolkit, TensorRT und NVFlare zur Leistungsoptimierung der KI-Inferenz auf Nvidia GPUs.

Datenmanagement: Akamai ermöglicht Kunden, das volle Potenzial der KI-Inferenz mit einer hochmodernen Datenstruktur zu erschließen, die speziell für moderne KI-Workloads entwickelt wurde. In Zusammenarbeit mit VAST Data bietet Akamai optimierten Zugang zu Echtzeitdaten, um inferenzbezogene Aufgaben zu beschleunigen. Auf dieser Basis liefert Akamai relevante Ergebnisse sowie ein responsives Erlebnis. Dies wird durch hochskalierbaren Objektspeicher ergänzt, um das Volumen und die Vielfalt von Datensätzen zu verwalten, die für KI-Anwendungen kritisch sind. Die Integration führender Vektordatenbank-Anbieter wie Aiven und Milvus ermöglicht Retrieval Augmented Generation (RAG). Mit diesem Datenmanagement-Stack speichert Akamai fein abgestimmte Modelldaten und Trainingsartefakte sicher für eine KI-Inferenz mit niedriger Latenz im globalen Maßstab.

Containerisierung: Die Containerisierung von KI-Workloads ermöglicht bedarfsbasierte automatische Skalierung, verbesserte Anwendungsresilienz und Hybrid-/Multicloud-Portabilität bei gleichzeitiger Optimierung von Leistung und Kosten. Mit Kubernetes liefert Akamai schnellere, günstigere und sicherere KI-Inferenz im Petabyte Bereich. Unterstützt wird dies durch die Linode Kubernetes Engine (LKE)-Enterprise, eine neue Enterprise-Edition der Akamai Cloud Kubernetes-Orchestrierungsplattform, die speziell für große Unternehmens-Workloads entwickelt wurde, sowie die kürzlich angekündigte Akamai App Platform . Akamai Cloud Inference ist damit in der Lage, über eine KI-fähige Plattform aus nahtlos integrierten Open-Source-Kubernetes-Projekten, einschließlich KServe, Kubeflow und SpinKube schnell und effizient KI-Modelle für Inferenz bereitzustellen.

Edge-Computing: Zur Vereinfachung der Entwicklung KI-gestützter Anwendungen umfasst Akamai AI Inference WebAssembly (WASM)-Funktionen. In Zusammenarbeit mit WASM-Anbietern wie Fermyon ermöglicht Akamai Entwicklern, Inferencing für LLMs direkt über Serverless-Funktionen auszuführen. Dies ermöglicht es Kunden, kompakten Code an der Edge für echtzeitkritische Anwendungen zu nutzen.

Diese Tools bilden zusammen eine leistungsstarke Plattform für latenzarme, KI-gestützte Anwendungen. Sie ermöglicht Unternehmen die von ihren Nutzern geforderten Anforderungen zu erfüllen. Akamai Cloud Inference läuft auf der massiv verteilten Plattform des Unternehmens, das konsistent mehr als ein Petabyte pro Sekunde Durchsatz für datenintensive Workloads liefern kann. Mit mehr als 4.200 Standorten in über 1.200 Netzwerken in mehr als 130 Ländern weltweit macht die Akamai Cloud Rechenressourcen von der Cloud bis zur Edge verfügbar, beschleunigt gleichzeitig die Anwendungsleistung und erhöht die Skalierbarkeit.

Die Verlagerung von KI-Training zu KI-Inferenz

Mit der zunehmenden Etablierung von KI erkennen Unternehmen, dass der Hype um LLMs den Fokus von praktischen KI-Lösungen abgelenkt hat, die besser geeignet sind, spezifische Geschäftsprobleme zu lösen. LLMs eignen sich hervorragend für allgemeine Aufgaben wie Zusammenfassung, Übersetzung und Kundenservice. Diese sehr großen Modelle sind jedoch teuer und zeitaufwändig zu trainieren.

Viele Unternehmen sehen sich durch architektonische und kostenbezogene Anforderungen eingeschränkt, einschließlich Rechenzentren und Rechenleistung, gut strukturierte, sichere und skalierbare Datensysteme sowie die Herausforderungen, die Standort- und Sicherheitsanforderungen an die Entscheidungslatenz stellen. Leichtgewichtige KI-Modelle, die entwickelt wurden, um spezifische Geschäftsprobleme zu lösen, können für einzelne Branchen optimiert werden. Sie nutzen proprietäre Daten, um messbare Ergebnisse zu erzielen und liefern heute eine höhere Profitabilität für Unternehmen.

KI-Inferenz benötigt eine stärker verteilte Cloud

Daten werden zunehmend außerhalb zentralisierter Rechenzentren oder Cloud-Standorten generiert. Diese Verschiebung treibt die Nachfrage nach KI-Lösungen an, die die Datengenerierung näher am Ursprungsort nutzen. Das verändert grundlegend die Infrastrukturbedürfnisse, da Unternehmen über den Aufbau und das Training von LLMs hinausgehen, um Daten für schnellere und intelligentere Entscheidungen zu nutzen und in personalisiertere Erfahrungen zu investieren.

Unternehmen erkennen, dass sie mehr Wert generieren können, indem sie ihre Geschäftsabläufe und -prozesse mit KI verwalten und verbessern. Verteilte Cloud- und Edge-Architekturen erweisen sich als bevorzugt für Anwendungsfälle der Echtzeitanalyse von Betriebsdaten. Sie liefern Einblicke über verteilte Assets hinweg in Echtzeit, selbst in entfernten, schlecht angebundenen Umgebungen.

Erste Anwendungsfälle von Unternehmen auf der Akamai Cloud umfassen Sprachassistenz im Fahrzeug, KI-gestützte Pflanzenbewirtschaftung, Bildoptimierung für Marktplätze für Konsumgüter, virtuelle Bekleidungsvisualisierung im Einkaufserlebnis, automatisierte Generierung von Produktbeschreibungen und Stimmungsanalysen für Kundenfeedback.

"Das Training eines LLM ist wie das Erstellen einer Karte - es erfordert das Sammeln von Daten, die Analyse des Terrains und das Planen von Routen. Dieser Prozess ist langsam und ressourcenintensiv, aber einmal erstellt, ist es sehr nützlich. KI-Inferenz, ist wie die Verwendung eines GPS, das dieses Wissen sofort anwendet, in Echtzeit neu berechnet und sich an Änderungen anpasst, um dahinzugelangen wo man hinmöchte.", erklärt Karon. "Inferenz ist das nächste Pionierland für KI."

Diese Pressemeldung wurde auf openPR veröffentlicht.

Verantwortlich für diese Pressemeldung:

Pressekontakt

  • FleishmanHillard Germany GmbH
    Blumenstraße 28
    80331 München

News-ID: 1280512
 498

Kostenlose Online PR für alle

Jetzt Ihren Pressetext mit einem Klick auf openPR veröffentlichen

Jetzt gratis starten

Pressebericht „Akamai verbessert KI-Anwendungen mit der Einführung von Akamai Cloud Inference “ bearbeiten oder mit dem "Super-PR-Sparpaket" stark hervorheben, zielgerichtet an Journalisten & Top50 Online-Portale verbreiten:

PM löschen PM ändern
Disclaimer: Für den obigen Pressetext inkl. etwaiger Bilder/ Videos ist ausschließlich der im Text angegebene Kontakt verantwortlich. Der Webseitenanbieter distanziert sich ausdrücklich von den Inhalten Dritter und macht sich diese nicht zu eigen. Wenn Sie die obigen Informationen redaktionell nutzen möchten, so wenden Sie sich bitte an den obigen Pressekontakt. Bei einer Veröffentlichung bitten wir um ein Belegexemplar oder Quellenennung der URL.

Pressemitteilungen KOSTENLOS veröffentlichen und verbreiten mit openPR

Stellen Sie Ihre Medienmitteilung jetzt hier ein!

Jetzt gratis starten

Weitere Mitteilungen von Akamai Technologies

Bild: Akamai verbessert mit einer neuen Zero-Trust-Plattform die Sicherheit in Unternehmen  Bild: Akamai verbessert mit einer neuen Zero-Trust-Plattform die Sicherheit in Unternehmen
Akamai verbessert mit einer neuen Zero-Trust-Plattform die Sicherheit in Unternehmen
Die Akamai Guardicore Platform vereinfacht die Unternehmenssicherheit mit umfassender Transparenz und detaillierten Kontrollen über eine einzige Konsole Cambridge, Massachusetts (USA) |Akamai Technologies, Inc. (NASDAQ: AKAM), das Cloudunternehmen, das das digitale Leben unterstützt und schützt, hat heute die Akamai Guardicore Platform bekannt gegeben. Sie soll dazu dienen, das Erreichen der Zero-Trust-Ziele von Unternehmen zu fördern. Die Akamai Guardicore Platform ist die erste Sicherheitsplattform, die branchenführenden Zero Trust Networ…
Für Videoverarbeitung optimiert: Akamai führt Cloudinfrastruktur und -services auf Basis von NVIDIA GPUs ein
Für Videoverarbeitung optimiert: Akamai führt Cloudinfrastruktur und -services auf Basis von NVIDIA GPUs ein
Die neue Codierung mit kostengünstigen NVIDIA-GPUs optimiert die Verarbeitungskapazitäten von Medienunternehmen LAS VEGAS, 22. April 2024 | Akamai Technologies , Inc. (NASDAQ-Kürzel: AKAM), das Cloudunternehmen, das das digitale Leben unterstützt und schützt, hat sein wachsendes Cloudportfolio um ein neues medienoptimiertes Angebot auf Basis von NVIDIA-GPUs erweitert. Mit der NVIDIA-GPU RTX 4000 der Ada-Generation sorgt der neue cloudbasierte Service für eine höhere Produktivität und Wirtschaftlichkeit in Unternehmen der Medien- und Enterta…

Das könnte Sie auch interessieren:

Für Videoverarbeitung optimiert: Akamai führt Cloudinfrastruktur und -services auf Basis von NVIDIA GPUs ein
Für Videoverarbeitung optimiert: Akamai führt Cloudinfrastruktur und -services auf Basis von NVIDIA GPUs ein
Die neue Codierung mit kostengünstigen NVIDIA-GPUs optimiert die Verarbeitungskapazitäten von Medienunternehmen LAS VEGAS, 22. April 2024 | Akamai Technologies , Inc. (NASDAQ-Kürzel: AKAM), das Cloudunternehmen, das das digitale Leben unterstützt und schützt, hat sein wachsendes Cloudportfolio um ein neues medienoptimiertes Angebot auf Basis von NVIDIA-GPUs …
Bild: Neue Standorte, Services und Funktionen: Akamai stellt Weichen für das nächste Jahrzehnt des Cloud ComputingBild: Neue Standorte, Services und Funktionen: Akamai stellt Weichen für das nächste Jahrzehnt des Cloud Computing
Neue Standorte, Services und Funktionen: Akamai stellt Weichen für das nächste Jahrzehnt des Cloud Computing
… Integration ermöglicht Kunden, zwischen lokalem und globalem Lastausgleich über das Netzwerk von Akamai und die schnell wachsende Anzahl von Standorten zu wählen. Die Einführung des Akamai Global Load Balancers ist eine entscheidende Komponente der Vision von Akamai von der Connected Cloud. Die neuen Cloud-Computing-Standorte und -Funktionen sind Teil …
Akamai verbindet die Akamai Intelligent Platform mit der Google Cloud Platform
Akamai verbindet die Akamai Intelligent Platform mit der Google Cloud Platform
München, 23. November 2015 – Durch die Verknüpfung der Akamai Intelligent Platform mit der Google Cloud Platform können Unternehmen Cloud-Inhalte schneller und kosteneffizienter bereitstellen. Akamai Technologies (NASDAQ: AKAM), der führende Anbieter von Content-Delivery-Network (CDN)-Services, erstellt im Rahmen des Google-Interconnect-Programms eine …
Akamai baut Geschäft in Deutschland und in der EMEA Region weiter aus
Akamai baut Geschäft in Deutschland und in der EMEA Region weiter aus
Mit neuen Niederlassungen in Ratingen und Hamburg und personellem Wachstum beschließt Akamai das Jahr 2013; Wachstum im Bereich Cloud Services geht ungebrochen weiter München, 12. Dezember 2013 – Akamai Technologies, ein führender Anbieter von Cloud-Services, mit denen sich Online-Inhalte und Business-Applikationen sicher bereitstellen und optimieren …
Akamais neue Business Unit adressiert Anforderungen von Mobilfunkbetreibern und Herstellern mobiler Endgeräte
Akamais neue Business Unit adressiert Anforderungen von Mobilfunkbetreibern und Herstellern mobiler Endgeräte
… neue Organisationseinheit wird von Vice President und General Manager Lior Netzer geleitet und soll als Kompetenzzentrum für die Entwicklung, Förderung und Einführung neuer mobiler Produkte dienen. Die Weiterentwicklung mobiler Technologien wird durch eine verstärkte Integration in Mobilfunknetze zur Verbesserung und Differenzierung bestehender Akamai-Services …
Bild: Akamai verbessert mit einer neuen Zero-Trust-Plattform die Sicherheit in Unternehmen  Bild: Akamai verbessert mit einer neuen Zero-Trust-Plattform die Sicherheit in Unternehmen
Akamai verbessert mit einer neuen Zero-Trust-Plattform die Sicherheit in Unternehmen
… Anbieter konsolidieren und ihre Budgets verwalten müssen", so Pavel Gurvich, Senior Vice President, General Manager, Enterprise Security bei Akamai. "Mit der Einführung von Zero Trust suchen Unternehmen nach einfacheren Lösungen, die umfassende Transparenz und detaillierte Kontrollen für alle Assets und Zugriffsrichtlinien bieten. Sicherheitsexperten …
Akamai präsentiert neue Cloudlets für schnelle und sichere Weberlebnisse
Akamai präsentiert neue Cloudlets für schnelle und sichere Weberlebnisse
… September 2014 – Akamai bringt Erweiterungen für die Akamai Intelligent Platform auf den Markt. Die per Self-Service nutzbaren Cloudlets verkürzen die Einführungszeiten für Webentwickler, sorgen für eine einfache Skalierung der Infrastruktur und verbessern die Seitenladezeiten. Akamai Technologies (NASDAQ: AKAM), ein führender Anbieter von Cloud-Services, …
Akamai: neue Produkte für mehr Power und Sicherheit für das digitale Erlebnis
Akamai: neue Produkte für mehr Power und Sicherheit für das digitale Erlebnis
… und Computing-Produktportfolio des Unternehmens. Die Neuvorstellungen markieren den Einstieg von Akamai in den IaaS-Markt (Infrastructure as a Service) und beinhalten die Einführung von Linode Managed Database und Audience Hijacking Protector sowie einer Vielzahl weiterer neuer Funktionen für Entwickler und Cybersicherheitsexperten. Im Laufe der Woche …
Fidor Bank vereitelt groß angelegte DDoS-Attacke mit Cloud Security Services von Akamai
Fidor Bank vereitelt groß angelegte DDoS-Attacke mit Cloud Security Services von Akamai
… konzentrieren“, sagt Andreas Hellwig, Chief Technology Officer bei Fidor TecS in München, hundertprozentige Tochter der Bank und Betreiber der Digital-Banking-Plattform von Fidor. Die Einführung der Akamai-Prolexic-Lösung zahlt sich für die Fidor Bank aus. Seit ihrer Einführung hatten weitere Attacken keinerlei Einschränkung der Verfügbarkeit zur Folge. So …
Akamai plant Übernahme von Prolexic
Akamai plant Übernahme von Prolexic
Akamai beabsichtigt sein branchenführendes Weboptimierungs- und Sicherheitsportfolio um Cloud-Lösungen für den Schutz von Rechenzentren und Unternehmensapplikationen zu erweitern München, 03. Dezember 2013 – Akamai Technologies, Inc. (NASDAQ: AKAM) und Prolexic Technologies, Inc., haben eine Vereinbarung unterzeichnet, die den Erwerb von Prolexic durch …
Sie lesen gerade: Akamai verbessert KI-Anwendungen mit der Einführung von Akamai Cloud Inference