AirPods bekommen bald Live-Übersetzungsfunktion

Konkrete Hinweise gefunden

Hinweis: Artikel enthält Affiliate-Links. Was ist das?

In der aktuellen Beta von iOS 26 versteckt sich offenbar ein spannendes neues Feature: Live-Übersetzung direkt auf den AirPods.

In den Systemdateien von iOS 26 Beta 6 wurde ein Bild gefunden, das AirPods zusammen mit dem Wort „Hallo“ in mehreren Sprachen zeigt. Dazu gibt es einen Hinweis, dass sich die Funktion mit einem Doppeldruck aktivieren lässt. Die Datei trägt passenderweise den Namen „Translate“ – ein ziemlich klarer Hinweis darauf, dass Apple eine spezielle Geste zur Live-Übersetzung plant.


Gerüchte über dieses Feature gab es schon vor der Veröffentlichung von iOS 26. Bloomberg-Reporter Mark Gurman hatte damals angedeutet, dass die AirPods eine Übersetzungsfunktion für persönliche Gespräche erhalten könnten. Jetzt sieht es so aus, als würde Apple genau daran arbeiten. Ob das Feature gleich zum Start von iOS 26 oder erst in einem späteren Update kommt, bleibt noch offen.

Live-Translate für die AirPods Pro 2 und AirPods 4?

Den Bildern zufolge wird die Funktion auf den AirPods Pro 2 und den AirPods 4 unterstützt. Die bestehenden Live-Übersetzungsfunktionen sind mit Apple Intelligence verknüpft, was bedeutet, dass für die AirPods-Funktion möglicherweise auch ein iPhone erforderlich ist, das Apple Intelligence unterstützt.

[amazon box=“B0CHWZ9TZS,B0DGHYDYJL“]

Anzeige

Seit 2010 als (Mit)-Gründer dabei, habe ich die zahlreichen Gerüchte rund um neue Apple-Produkte immer im Blick. Im Bereich Smart Home teste ich liebend gerne Saug- und Wischroboter, schaue mir HomeKit- und Matter-Gadgets an und fülle unsere Social Media-Kanäle bei Instagram, TikTok und Threads mit Leben.

Kommentare 3 Antworten

  1. Dann brauchen aber beide Gesprächspartner so etwas, denn sonst wird das ein einseitiges „Gespräch“, oder?
    Wird das wirklich nur mit den häßlichen Airpods mit Stängel gehen? Nicht auch mit anderen Kopfhörern? Die Kopfhörer müssen dabei ja eigentlich nichts machen, was sie nicht sonst auch erledigen.

    Aber eigentlich gibt es das Feature ja schon ziemlich lange in Form des Babelfisches.

    1. Es ist leicht die wichtigsten funktionalen Phrasen einer Sprache zu lernen. Damit kann man praktisch jedem Satz ausreichend antworten, wenn dieser übersetzt wird.

      Es wird daraus keine Diskussion – aber plötzlich hast du einen unscheinbaren Dolmetscher an deiner Seite und die andere Person fühlt sich verstanden ohne sich anpassen zu müssen.

      Hier wäre es aber wichtig, wenn etwas Vernünftiges wie GPT-5 übersetzen würde. Da ist nämlich das Gefühl für Nuancen, Sprichwörter und Dialekte enorm fortgeschritten und praktisch auf Muttersprachler Niveau.

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert