Bilderkennung: Apple zeigt Ergebnisse seiner KI-Forschung

OS1012-ApplePay_PR-PRINT

Apple beschäftigt hochkarätige Wissenschaftler im Bereich der Künstlichen Intelligenz, die bisher ihre Ergebnisse aber nicht publizieren durften. Damit können Karrieren von Wissenschaftlern zerstört werden. Apple versprach das zu ändern. Nun gibt es die ersten Ergebnisse.

Apple hat Einblick in seine Forschung zur künstlichen Intelligenz gegeben und erlaubte seinen Wissenschaftern, wissenschaftliche Arbeiten zu veröffentlichen. Nun ist die erste Publikation erschienen, deren Leitautor der Apple-Forscher Ashish Shrivastava ist. Als Koautoren beteiligt waren die Mitarbeiter des KI-Start-ups Emotient, das Apple früher in diesem Jahr übernahm.

Den Schritt an die Öffentlichkeit wagt der sonst eher verschwiegene iPhone-Hersteller, weil es unerlässlich ist, um gesuchte KI-Experten anwerben zu können. Im Wettbewerb könnte er sonst zurückfallen in einem Feld, das entscheidend ist für alle Technikfirmen.

Apples erste KI-Informationen handeln von aktueller Forschung für maschinelles Lernen, bei dem synthetische Bilder zum Einsatz kommen, wie man sie etwa von Videospielen kennt. Mit ihnen kann es effizienter sein als mit Bildmaterial aus der echten Welt, neuronale Netze zu trainieren. Ein Grund dafür ist, dass synthetische Bilddaten bereits mit Kennzeichnungen und Anmerkungen zu ihrer Bedeutung versehen sind. Bei Daten aus der echten Welt muss das hingegen erst mühsam und kostspielig erarbeitet werden.

Nachteil synthetischer Daten ist allerdings oft, dass sie nicht realistisch genug sind. Das führt Apples KI-Forschern zufolge dazu, dass „das Netz Details lernt, die es nur in synthetischen Bildern gibt, was zu unzutreffenden Verallgemeinerungen bei echten Bildern führt“. Um das Training mit synthetischen Bilddaten zu verbessern, wollen sie daher den Realismus simulierter Bilder steigern mit einer Lernmethode, die sie Simulated + Unsupervised Learning (S+U) nennen.

Dabei handelt es sich um eine modifizierte Version des Verfahrens Generative Adversial Networks (GANs), bei dem zwei neuronale Netze in Konkurrenz zueinander agieren. Damit gelang es den Forschern, aus synthetischem Material besonders realistische Bilder zu erzeugen, die sich deutlich besser für ihre Zwecke eignen. Sie führen aus, das sie dieses Ergebnis sowohl qualitativ als auch mit einer Nutzerstudie bestätigen konnten.

Nach einem früheren Bericht ist Apple dabei, eine Sparte für Selbstlernsysteme aufzubauen. Die Grundlage soll es mit der Übernahme von Turi geschaffen haben und in Seattle die Einrichtung von Büroräumen für bis zu 2300 Mitarbeiter planen.

In diesem Jahr tätigte Apple bereits mehrere Akquisitionen im Umfeld von maschinellem Lernen und künstlicher Intelligenz. Mit Perceptio erwarb es einen Anbieter von Lösungen für maschinelles Lernen. Das ebenfalls übernommene KI-Start-up Emotient nutzt künstliche Intelligenz, um Gefühle hinter Gesichtsausdrücken zu bestimmen – um etwa die Reaktionen einkaufender Menschen auf Werbung und Angebote in Ladengeschäften automatisiert einschätzen zu können.

Tipp: Wie gut kennst Du Apple? Überprüfe Dein Wissen – mit 15 Fragen auf silicon.de.

Tags :Quellen:Mit Material von Bernd Kling, ZDNet.de

Hinterlasse eine Antwort

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind markiert *

Advertising