Podcast

From Noise Cancellation To AI Pods: Cisco’s Hidden AI Stack

Mit Keith Griffin, Cisco

16.01.2026YouTubeAI Stack
From Noise Cancellation To AI Pods: Cisco’s Hidden AI Stack | Keith Griffin, Cisco

Keith Griffin zeigt, wie Cisco KI nicht als Demo denkt, sondern als belastbare Infrastruktur: nah am Problem, mit klaren Guardrails, lokaler Verarbeitung wo möglich und Governance, die Technik, Recht und Betrieb zusammenbringt. Es geht um Resilienz, Vertrauen und darum, AI in echte Arbeitsabläufe zu übersetzen, ohne die Kontrolle zu verlieren.

Das Wichtigste in Kürze

Vom Demo zur Betriebsrealität

Der Kernunterschied zwischen Consumer-KI und Enterprise-KI ist nicht das Modell, sondern die Betriebslogik: Ausfälle, Failover, Datenresidenz und Sicherheitsanforderungen bestimmen die Architektur. Cisco denkt deshalb in robusten Systemen, oft innerhalb einer Region statt einfach in der Cloud-Zentrale.

Der erste Durchbruch kam über Noise Detection

Der Einstieg in Ciscos KI-Arbeit war kein großes Sprachmodell, sondern eine praktische Frage: Lässt sich störendes Audio per Machine Learning besser und günstiger lösen als mit klassischer Signalverarbeitung? Genau daraus entstand der erste Beweis, dass KI in Collaboration echten Nutzwert bringt.

Ohne Vertrauen kein Einsatz

Keiths zentrale Linie ist klar: Wenn Datenschutz und Responsible AI nicht von Anfang an mitgedacht werden, bleibt es bei einer guten Demo. Erst wenn Nutzer und Organisation sicher sein können, dass Daten, Verhalten und Ergebnisse kontrollierbar sind, wird daraus ein Produkt.

The Big Points

Resilienz schlägt Showeffekt

Keith beschreibt Enterprise-KI als Infrastrukturproblem. Es reicht nicht, ein Modell zum Laufen zu bringen. Systeme müssen auch dann funktionieren, wenn Regionen ausfallen, Daten lokal bleiben müssen oder Partnerkomponenten mitverantwortlich sind. Gerade neue Regeln zur Datenresidenz machen Failover komplizierter, weil man nicht einfach in die nächste Region ausweichen kann.

Sein Blick kommt aus klassischer Telekom-Logik: Telefonie darf nicht ausfallen, also wird überengineert. Diese Denke überträgt er auf KI in Collaboration. Die Frage lautet nicht: Was ist technisch beeindruckend? Sondern: Was ist robust genug, um im Unternehmen wirklich getragen zu werden?

Guardrails sind mehr als Sicherheitsfilter

Bei Deepfakes, Toxicity, Jailbreaks oder Prompt Injection reicht ein einzelner Schutz nicht aus. Keith sieht Deepfake-Erkennung eher als Teil eines größeren Identitäts- und Vertrauenssystems. Cisco setzt dabei nicht nur auf eigene Technik, sondern auch auf Partner und Beteiligungen, etwa bei GetReal, Pindrop oder Karnā.

Gleichzeitig warnt er vor einem engen Blick auf reine Erkennung: Wer nur Deepfakes gegen Deepfakes stellt, baut leicht ein fragiles System. Wichtiger ist die Kombination aus Identität, Authentifizierung, Brand-Schutz und klaren Regeln für das, was ein Assistent überhaupt sagen oder empfehlen darf.

Agenten starten klein, nicht groß

Keith ist bei Agenten deutlich pragmatisch. Seine Empfehlung: Erst einen einzelnen Anwendungsfall sauber lösen, Vertrauen aufbauen und dann erweitern. Das Beispiel aus Australien zeigt das gut: Ein Agent startete nur mit Kündigungen, weil genau dort der größte Bedarf lag. Erst danach kamen Umbuchungen und weitere Schritte dazu.

Zugleich betont er, dass schlechte User Experience viele KI-Projekte scheitern lässt. Ein Speech-Engine-LLM-Verbund reicht nicht. Turn Detection, Semantik, Pausenlogik und ein natürliches Gesprächsgefühl entscheiden mit darüber, ob Menschen das System wirklich nutzen.

Audio, Hardware und Edge sind kein Nebenkriegsschauplatz

Cisco trennt in seiner KI-Strategie bewusst zwischen Speech, Audio, Computer Vision und Language AI. Das ist kein Feinschliff, sondern Architektur. Audio-Verarbeitung am Gerät ist oft besser, weil dort das Problem entsteht und weil Transparenz und Datenschutz für Kunden leichter nachvollziehbar sind.

Dazu passt Ciscos Investition in Hardware mit NVIDIA GPUs in Collaboration-Geräten und der Aufbau von AI Pods als On-Prem-Alternative für Kunden, die nicht in die Cloud gehen können oder wollen. Damit entstehen mehrere sinnvolle Designpfade: Cloud, Edge, Device oder eigenes AI-Ready-Rechenzentrum, je nachdem, was das Problem und die Compliance verlangen.

Video

Externer Inhalt

YouTube-Video laden

Wird von Google Ireland Ltd. geladen.

Optionen & Datenschutz

„From Noise Cancellation To AI Pods: Cisco’s Hidden AI Stack | Keith Griffin, Cisco" ist bei YouTube gehostet. Beim Laden wird eine Verbindung zu YouTube/Google aufgebaut.

Beim Laden werden Daten (z. B. IP-Adresse, Browser-Informationen) an Google Ireland Ltd. / Google LLC übertragen. Beim Laden Verbindung zu YouTube/Google; eine Übermittlung in die USA kann nicht ausgeschlossen werden.

Ist das Thema interessant für dich? Dann gibt es vier sinnvolle nächste Schritte.

Wir haben die Kernideen dieser Quelle als strukturierte Markdown Datei aufbereitet, damit du es perfekt als Kontext für dein eigenes KI-Projekt nutzen kannst. Lade die Datei herunter, wirf sie in das Tool deiner Wahl und arbeite damit weiter!

Für den Download brauchen wir deine E-Mail-Adresse. Infos zur Datenverarbeitung findest du in der Datenschutzerklärung.

Wenn du aus deinem Interesse echte Praxis machen willst, komm' in die Blackboat Academy! Von kompakten Workshops über mehrwöchige Intensivprogramme bis zur persönlichen Begleitung über ein ganzes Quartal: in unserer Academy findest du das Format, das zu deinem Ziel, deinem Level und deinem Zeitrahmen passt.

Wenn das Thema gerade für dein Team, dein Event oder deine Führungsebene relevant ist, kann Christoph den Impuls auch live in eure Organisation bringen.

Kennst du jemanden, der unbedingt mit Christoph abnerden sollte? Jemanden mit einer starken Story, einer ungewöhnlichen Perspektive oder echtem KI-Praxiswissen? Oder möchtest du mit deinem Produkt die richtige Zielgruppe erreichen? AI to the DNA erreicht Entscheider:innen, die KI nicht nur verstehen, sondern umsetzen. Wenn dein Angebot dazu passt, lass uns sprechen!