Werbung
Als Apple das iPhone 4S vorstellte, gab es nur ein Thema: Siri. Die Sprachsteuerung war neben dem erwarteten Apple A5 Dual-Core-Prozessor und iOS 5 das große Unterscheidungsmerkmal zum iPhone 4. Apples Betriebssystem iOS 5 sollte bald auch für das iPhone 4 und andere frühere iOS-Geräte aus Cupertino bereitstehen, doch ein Feature war nur dem iPhone 4S vorbehalten: Siri. Sprachsteuerungen sind nichts neues im Smartphonebereich. Bereits Android 1.6 Donut beherrschte simple Sprachkommandos und hatte eine Diktierfunktion, die auch heute noch Bestandteil von Android ist und immer weiter verbessert wurde. Apple gab Siri jedoch die Fähigkeit alltägliche Sprache zu verstehen und machte so die Sprachsteuerung natürlicher für den Nutzer.
Bereits kurz nachdem Siri in der Öffentlichkeit auftauchte machten sich talentierte Developer daran Pendants für Android zu entwickeln und Apple-Entwickler versuchten sich daran Siri doch auf das iPhone 4 zu portieren. Bisher waren diese Versuche vor allem Bastellösungen und funktionierten keinesfalls genauso gut, wie auf dem iPhone 4S. Apple selbst erklärte, dass der A4-Prozessor nicht ausreichend Rechenleistung hätte, um Siri problemlos nutzen zu können - der A5-Dual-Core-Prozessor wäre zwingend notwendig. Das Performance-Argument wurde recht schnell zerstreut.
Doch wie CNET berichtet, ist Apples Erklärung nicht weit von der ganzen Wahrheit entfernt. So untersuchten iFixit und Chipworks, warum Apples A5 derart groß geraten war - verglichen mit vergleichenbaren Chips. Dabei entdeckten sie, dass der A5 von Audience lizensierte Hardware zur Geräuschunterdrückung beinhaltet. Dass Apple, wie auch HTC, Samsung, Sony oder LG, Kunde von Audience ist, ist prinzipiell nichts Neues. Mehr als 60 Smartphones und Tablets nutzen mittlerweile Technologie von Audience, um Klang und Sprachausgabe zu verbessern - in Form von Zusatzchips. Auch das iPhone 4 enthält Audience-Technologie.
Die Besonderheit am A5-Dual-Core-Prozessor ist die Integration einer Weiterentwicklung von Audiences EarSmart-Technologie direkt in den Chip. Diese Version von EarSmart kann Geräusche effektiver unterdrücken und ermöglicht es so klare Spracherfassung auch über größere Distanzen zu ermöglichen. Wo bisherige Versionen nur 100-prozentig zuverlässlich waren, wenn man direkt in das Mikrofon sprach, ermöglicht EarSmarts neues "far-field speech"-Feature auch bei armlanger Entfernung von Mund zu Mikrofon eine perfekte Spracherkennung. Das iPhone 4 war bereits vor der Veröffentlichung der "far-field speech"-Technologie erhältlich, weshalb Apple die Technologie nicht in ihr ehemaliges Flaggschiff packen konnte.
Tatsächlich ist also die Hardware in Form des Apple A5-Dual-Core-Prozessors der Grund für Siris Enthaltsamkeit auf früheren iOS-Geräten. Die Gerüchteküche erwartet EarSmart auch im Apple A6, der das nächste iPad befeuern soll.