Posts mit dem Label project werden angezeigt. Alle Posts anzeigen
Posts mit dem Label project werden angezeigt. Alle Posts anzeigen

Freitag, 21. Februar 2014

Project Tango: Google stellt Smartphone-Prototypen mit 3D-Sensoren à la Kinect vor

Google hat in der vergangenen Nacht sein Project Tango vorgestellt. Dabei handelt es sich um die Entwicklung von Smartphones, die mithilfe von hochsensiblen Sensoren unsere Umwelt permanent in 3D scannen und diese so gut wie die menschlichen Sinne erfassen können sollen. Google stellte auch einen ersten Geräte-Prototypen, der im konzerneigenen Advanced Technology and Projects (ATAP)-Labor entwickelt wurde, bereits vor.
Der Project Tango-Prototyp ist ein Android-Smartphone mit 5 Zoll-Display und angepasster Hardware. Auf der Rückseite befinden sich drei Kameras, mit der das Gerät die Umgebung in Echtzeit aufnimmt – zusammengerechnet finden mehr als 250.000 Messungen pro Sekunde statt. Aus diesem Datensatz erstellt der so genannte Myriad 1-Prozessor, hergestellt vom irischen Chipdesigner Movidius, als „Herz“ der Sensortechnologie einen virtuellen dreidimensionalen Raum, der auf dem Display dargestellt werden kann. Sowohl der Raum, in dem man sich bewegt, als auch die eigenen Bewegungen werden in Echtzeit aufgenommen. Läuft man beispielsweise mit dem Tango-Phone durch sein Wohnzimmer, so lässt sich der komplette Raum mitsamt des Mobiliars, den Wänden und weiteren Inventars in einer virtuellen, dreidimensionalen Karte erfassen.
google-project-tango-smartphone-3
Ziel des Ganzen sei unter anderem, detaillierteres Material für Innenraumkarten zu erstellen, aber auch neue Gaming-Erfahrungen sollen so möglich werden – der Phantasie sind kaum Grenzen gesetzt. Derzeit ist man noch dabei, die Möglichkeiten dieser Technologie auszuloten. Google bietet Entwicklern daher an, sich um eines von 200 Exemplaren des Geräte-Prototypen zu bewerben.
Die für Project Tango verantwortliche Abteilung ist ein ausgegliederter Teil vonMotorolas Advanced Technologies-Abteilung, die auch für das modulare Smartphone im Project Ara verantwortlich ist und nach dem Verkauf an Lenovobei Google verblieb. Kopf des ATAP-Labs ist Johnny Lee, der ehemals Microsoft dabei geholfen hat, Kinect zu entwickeln. Seit 2011 ist er bei Google und seitdem offenbar auch für die Entwicklung von Bewegungssensortechnologien angestellt. Seinen Aussagen zufolge versucht man mit dem Smartphone-Prototypen, mobilen Geräten ein gewisses „menschliches Verständnis“ von Raum und Bewegung zu verleihen, um auf diese Weise eine neuartige, erweiterte Nutzererfahrung zu liefern. Ebenso interessant könnte diese neue Technologie für Menschen mit Sehbeeinträchtigungen sein.
Zumindest in dieser kompakten Form und in Smartphones ist die Technologie völlig neu. Wir vermuten, dass Google Project Tango auch hinsichtlich der eigenen Ambitionen im Bereich der Robotik und selbst fahrenden Autos entwickelt. Wir sind gespannt, was sich noch alles damit anstellen lässt und werden natürlich weiter über Project Tango berichten.

Sonntag, 29. September 2013

Google Open Project: Inhalte vom Smartphone auf beliebige Displays projizieren

Screensharing ist bei Google ein großes Thema – und der HDMI-Dongle Chromecast erst der Anfang: Wenn man einen Blick auf das „Open Project“ wirft, sollen langfristig die Grenzen zwischen verschiedenen Geräten fallen, um Inhalte und Apps nahtlos und in Echtzeit von einem Device aufs nächste übertragen und manipulieren zu können – und zwar ohne zusätzliche Hardware. Ein Team von Entwicklern der Google Research-Labs arbeitet seit etwa einem Jahr daran, eine entsprechende Lösung zu finden. In einem jüngst veröffentlichten Video wird demonstriert, wie sich Inhalte mithilfe der Smartphone-Kamera und eines QR-Codes auf ein Display übertragen lassen.
Aktuelle Smartphones sind leistungsfähiger denn je. Aufgrund ihrer Rechenpower sind sie theoretisch zu mehr zu gebrauchen als nur zum Lesen von Mails, Twittern, den mobilen Aufenthalt auf Facebook und dergleichen. Ihr kompakter Formfaktor beschränkt die performanten Minirechner allerdings darin, Inhalte mit anderen zeitgleich zu betrachten und gemeinsam produktiv an Dokumenten zu arbeiten.
Hier kommt die Arbeit des Open Projects ins Spiel: Das Team hat einen Weg entwickelt, Daten vom Android-Smartphone auf beliebige Displays zu übertragen. So können Inhalte sowohl auf ein Notebook beziehungsweise einen PC-Monitor oder einen Smart-TV mit Internetanbindung als auch auf eine riesige öffentliche Werbetafel gestreamt werden. Die übertragenen Daten werden in Echtzeit angezeigt und können entweder vom Smartphone oder dem Display, sofern touch-fähig, bearbeitet werden.

(YouTube-Direktlink)
Google selbst beschreibt die Entwicklung als ein offenes, web-basiertes End-to-End-Framework, mit dem native mobile Apps auf einen Screen projiziert werden können. Im aktuellen Entwicklungsstatus findet die Kopplung eines Smartphones mit einem Screen mittels Smartphone-Kamera und QR-Code statt, der auf dem Empfangsdisplay eingeblendet wird. Ist die Verbindung hergestellt, kann der Nutzer den gespielten Screen beliebig positionieren, in der Größe verändern und Inhalte manipulieren, ganz wie auf dem Smartphone.
Zurzeit handelt sich das Ganze um ein Entwicklungsprojekt, es ist aber davon auszugehen, dass Google dieses Konzept bei Zeiten als finales Produkt vorstellt. Ob dann allerdings noch ein QR-Code zur Kopplung benötigt wird, ist fraglich. Es ist zudem vorstellbar, dass die Technologie Bump, die Google erst jüngst übernommen hat, in dieses Projekt einfließen wird.
google-open-project-streaming-1google-open-project-streaming-2