Professor Wolfgang Karl vom Institut für Informatik der Uni Karlsruhe hat uns einige Fragen zur Zukunft der Datennetze und Übertragungsstandrads beantwortet.
ScienceBlogs: Sehr geehrter Herr Karl, Sie haben sich in den letzten Jahren unter anderem mit der Architektur und den Protokollen zukünftiger Kommunikationsnetze beschäftigt. Wo liegen hier die größten Herausforderungen?
Wolfgang Karl: Auf der einen Seite beschäftigt uns hier die Integration und bessere Abstimmung von drahtlosen und Festnetzarchitekturen. Andererseits dreht sich die Arbeit um die Skalierung existierender Architekturen auf bisher nicht aufgetretene Größenordnungen (z.B. Millionen von „virtuellen Server” in einem Daten-Center, drahtlose Sensornetze, …). Und schließlich geht es dabei auch um eine Vereinfachung des Managements und die verbesserte Kontrolle über Netze und Entwicklung von Verfahren für erhöhte Robustheit.
ScienceBlogs: Heute gibt es beinahe einen Wildwuchs an unterschiedlichen Übertragungsstandards im Mobilfunkbereich (WLAN, UMTS, Bluetooth etc.). Wie stehen die Chancen, dass sich hier in Zukunft einheitliche Formate durchsetzen werden? Wann wird das ggf. soweit sein?
Wolfgang Karl: Die Chancen dafür sind sehr klein, da es sehr gute Gründe für diese unterschiedlichen Standards gibt. Man bewegt sich dabei in einem Optimierungs-Vieleck, das vorwiegend von den Faktoren
bestimmt wird.
Diese Aspekte sind wechselseitig widersprüchlich; es wird (soweit das heute zu beurteilen ist), kein einzelnes Verfahren geben, das alle Anforderungen befriedigen kann. Alleine akzeptable Kosten/Rechenaufwand ist je nach Anwendung ganz unterschiedlich und verlangt dann unterschiedliche Verfahren.
]]>Vodafone-Mitarbeiter Markus Bikker schrieb seine Diplomarbeit über die RFID-Technologie und hat uns diesbezüglich netterweise einige Fragen beantwortet.
Frage: Ein RFID-Chip ist enorm klein (kleiner als eine 1€-Münze). Kann er auch im menschlichen Körper verpflanzt werden und welche Vor- und Nachteile würde das mit sich bringen?
Ein RFID-Chip unter der Haut des Menschen kann seine Tagesabläufe vereinfachen.
Markus Bikker: Zunächt mal: Ja! RFID-Chips können in lebende Körper verpflanzt werden und das wird in großem Stil seit einigen Jahren auch schon gemacht: bei Hunden und Katzen. Das nennt man dann ‘chippen’ und dient hauptsächlich zur Identifizierung der Tiere wenn diese entlaufen oder tot aufgefunden werden. Es gibt allerdings auch hier schon Zusatzanwendungen: so kann z.B. eine automatische Katzenklappe in der Haustür mit einem RFID-Reader ausgestattet werden und öffnet sich dann nur noch, wenn das eigene Haustier draussen steht und nicht (wie bei herkömmlichen Bewegungssensoren) auch bei einer streunenden Katze.
Ähnliche Anwendungen gibt es schon im Pilotstadium bei Menschen. EIn in meiner Arbeit beschriebenes Beispiel stellt einen Studenten vor, der je einen RFID-Chip in der rechten und linken Hand implantiert hat. Den entsprechenden Code hat er an seiner Haustür programmiert: er kann also die Tür buchstäblich mit der Hand aufschließen und kann niemals mehr seinen Schlüssel vergessen! Andere Anwendungen gehen in Richtung Bezahldienste, so könnte man z.B. statt der EC- oder Kreditkarte mit dem Chip in der Hand bezahlen und Geld abheben.
Frage: Welchen Teil leistet RFID für die Telekommunikation?
Kombinierte Technologien können RFID einen entscheidenden Schritt nach vorn tragen.
Markus Bikker: RFID als solches bietet erstmal keinen direkten Mehrwert. Spannend ist jedoch die Anwendungsvielfalt die sich aus intelligenter Kopplung der beiden Technologien ergibt. Zwei Möglichkeiten stehen dabei im Vordergrund: Nutzung der Mobilfunktechnologie zum Transport der bei der RFID-Nutzung anfallenden Daten (dies habe ich in der Diplomarbeit als Fokus betrachtet. Damit könnten z.b. LKW mit RFID-Lesern und UMTS-Modulen ausgerüstet werden. Das RFID-Modul dient so zur Identifizierung der auf- und entladenen Güter, während das UMTS-Modul die ständige Verbindung zur Zentrale ermöglicht und z.B. Fehlentladungen kontrollieren und sofort korrigieren kann.
Der zweite Bereich ist wahrscheinlich in der Umsetzung zeitlich näher und dreht sich um die RFID-Technologievariante NFC (Near Field Communication). Zu dieser Technik gibt es schon einige Pilotprojekte im Bereich Bezahlung kleiner Beträge: so kann z.B. ein Mobiltelefon mit NFC ausgestattet werden, der eindeutige Code des Chips ist dem Mobilfunkprovider bekannt. Nun kann der Kunde z.B. Busfahrten oder Parkscheine mit dem ‘Handy’ berührungslos bezahlen, der Betrag wird dann der Telefonrechnung belastet und durch den Mobilfunkanbieter an den Dienstleister weitergegeben.
]]>Microsofts Antwort auf Nintendos Wii kommt vollkommen ohne Controller aus. Gesteuert wird ausschließlich über den eigenen Körper, die Stimme oder andere zuvor via Kamera eingescannte Objekte. So kann man z.B. das komplexe Menü der Konsole rein über Sprachkommandos steuern oder mit Handbewegungen durchblättern. Wie das möglich ist? In der kleinen, schwarzen Kiste befindet sich eine ausgeklügelte Sensor-Kombination, die laut Pressemitteilung unabhängig von Lichtverhältnissen funktioniert und sogar Gesichter erkennen kann.
Xbox 360: Transformation zu einem neuen Selbst
Was Project Natal zu einem kleinen Technik-Wunder macht, sind die folgenden Komponenten:
Project Natal hebt Kommunikation auf eine ganz neue Ebene.
So wird die Xbox 360 von einer gewöhnlichen Spielekonsole zu futuristischer Technik, was insbesondere Wege für neue Arten der Kommunikation öffnet. Kann die Natal-Technologie in Zukunft auch für Mobiltelefone (insbesondere Smartphones) genutzt werden? Werden unsere Heimcomputer in 10 Jahren nur noch via Stimme, Handbewegung und Touchscreen gesteuert? Microsoft erhöht die Chancen und bietet futuristisch anmutende Möglichkeiten, Multimedia-Inhalte, Spiele und Anwendungen zu kontrollieren. Jedoch hängt der zukünftige Erfolg klar von der Präzision der Features ab. Funktionieren die Sensoren nicht so gut, wie im unteren Video gezeigt, so stellt sich die Firma selbst ein Bein. Im Herbst 2010 darf sich der Endverbraucher dann selbst von Project Natal überzeugen lassen.
Viel zu erwarten für minimales Budget
Johnny Chung Lee: “Project Natal ist seiner Zeit voraus.”
Vielversprechend ist das Projekt auf jeden Fall. So berichtet Johnny Chung Lee, Mitarbeiter bei Microsoft, dass der Natal-Sensor detaillierte dreidimensionale Informationen der Umgebung erfassen kann – eine Leistung, die überlicherweise nur erheblich teurere Laser bieten. Auch von der Tiefenkamera ist der Interface- und Abtasttechnologie-Experte überzeugt: Sie erstellt eine Punktewolke der Oberfläche der Objekte vor der Linse, was ebenfalls mit einer normalen Kamera nicht möglich wäre.
Besonders aber schwärmt Lee von den Tracking-Algorithmen, die ihrer Zeit voraus seien und alles übertreffen, was er bisher auf diesem akademischen Forschungsgebiet gesehen hat.
Was das für die Kommunikation der Zukunft konkret bedeutet, kann momentan nur spekuliert werden. Genaue Konzepte sind nicht vor Ende 2010 zu erwarten. Teilt uns eure ganz eigenen Ideen in den Kommentaren mit.
]]>Das “smart” in Smartphone impliziert eigentlich, dass diese Art von mobilem Endgerät mehr kann und besser ausgerüstet ist als andere Telefone. Dies traf bis vor einigen Jahren allerdings nur bedingt zu: Zwar boten sich einem Smartphone-Nutzer mehr Möglichkeiten als mit einem konventionellen Handy, jedoch trat vor allem das Problem auf, Software zu finden und zu installieren. Einige Mobiltelefone waren sogar so kompliziert, dass man lange nach Basics wie dem SMS-Posteingang oder der Anruftaste suchen musste.
Smartphones galten früher als zu komplex für den Normalverbraucher.
Doch die Zeit schreitet voran und sowohl der Markt als auch die Smartphone-Endgeräte haben sich grundlegend verändert: Laut Bernstein Researchs Analytiker Toni Saccaonaghi wird der Smartphone-Markt in 2010/11 um satte 27% steigen (im Vergleich: Das Wachstum der letzten drei Jahre beträgt insgesamt 35%.). Der Großteil der Population, der einst auf weniger komplexe Mobiltelefone zurückgriff, kauft heutzutage öfter die vereinfachten Smartphones.
Apples iPhone als Vorreiter des Simplizitäts-Trends
Die Möglichkeit Applications zu sortieren hilft vielen Nutzern, sich auf dem Gerät zurechtzufinden.
Einen wesentlichen Teil dazu beigetragen hat das iPhone, welches bis heute auch klar die Nase vorn hat. Es verspricht eine simple Nutzung durch seine Applications, die über den AppStore gefunden und installiert werden können. Dank der einfach zu erkennenden Icons lassen sich Programme und Spiele sehr schnell finden; alle Funktionen lassen sich nach Bedeutsamkeit sortieren. Fortan war es auch technisch weniger versierten Menschen möglich, die vielen Möglichkeiten eines Smartphones auszunutzen und Apple sorgte dafür, dass der Nischenmarkt eine rosige Zukunft erhielt. Aktuell liegt der Smartphone-Anteil zwar nur bei 12% des gesamten Telekommunikationsmarktes – doch die Zahlen steigen rapide an.
Smartphones sind simpler geworden; Plattformen wie Facebook oder Twitter lassen sich mittlerweile sogar besser darüber updaten als über ein herkömmliches Gerät. Einzig der hohe Preis ist noch ein Faktor gegen ein Smartphone. Immerhin wird auch die Auswahl von Monat zu Monat größer. So gibt es bereits mehrere Androids, Palm möchte neben seinem Pre bald auch noch weitere Modelle veröffentlichen und selbst Microsoft arbeitet an zwei Telefonen gleichzeitig.
]]>Sie möchten wieder mit alten Schulfreunden in Kontakt treten? Neue Leute aus Ihrer Umgebung kennenlernen? Nichts leichter als das. In sogenannten sozialen Netzwerken können sich moderne Internetuser per Mausklick finden, über Gott und die Welt austauschen und sogar echte Freundschaften knüpfen. Es soll sogar immer mehr Paare geben, die sich über Plattformen wie Facebook oder Twitter gefunden haben. Willkommen im 21. Jahrhundert! Diese ganze Thematik ist Ihnen fremd? Wir schaffen Abhilfe:
Weltweite Vernetzungsmöglichkeiten
Eine Social Networking-Plattform ist meist ein Portal, in dem sich Nutzer anmelden können und somit eine eigene Profilseite erstellen. Auf dieser lassen sich dann persönliche Daten eintragen. Der Fantasie sind dabei kaum Grenzen gesetzt: Von den liebsten Hobbies über den Musikgeschmack bis hin zu einer exquisiten Gruppenauswahl, die die Persönlichkeit widerspiegelt. Eventuell möchte man noch Fotos der letzten Party oder der einsamen Socke in der Zimmerecke hinzufügen und im Anschluss über seinen Tagesablauf, das zuletzt eingenommene Mahl oder die Macken des Chefs berichten. Beim Social Networking wird Selbstdarstellung ganz groß geschrieben.
Die unzähligen Möglichkeiten der Netzwerke reizen die breite Masse.
All das hat mit Kommunikation nicht mehr viel zu tun, und dennoch darf sie nicht außer Acht gelassen werden. Die Netzgemeinschaften bilden einen großen Teil der Kommunikation der Zukunft. Laut einer älteren comScore-Studie stiegen die Nutzerzahlen schon von 2007 auf 2008 exponentiell an. Dies änderte sich auch im aktuellen Jahr nicht. Ein fleißiger Beobachter erkennt schnell, wie der Freundeskreis von Monat zu Monat wächst und immer mehr Menschen einen Account registrieren. Die Verlockung ist einfach zu groß, die Möglichkeit Kontakt zu knüpfen und aufrecht zu erhalten so simpel. Je größer die Nachfrage nach sozialer Vernetzung, umso höher das Angebot an Webdiensten und umso differenzierter einzelne Merkmale dieser. Social Networking wird also auch in Zukunft eine bedeutende Rolle für die zwischenmenschliche Kommunikation spielen.
Doch wie findet man sich überhaupt in dieser enormen Fülle an Netzgemeinschaften? Alte Schulfreunde lassen sich sicherlich über die Suchfunktion des Services ausfindig machen; doch schwieriger wird es, wenn man neue Freunde finden möchte. Zum einen kann man wahllos Leute aus Gruppen hinzufügen, deren Titel mit den eigenen Interessen kompatibel ist. Wer’s lieber etwas persönlicher mag, greift auf den neusten Trend des Web 2.0 zurück: das Poken.
Poken, oder: Ein High-Four für virtuellen Kontakt
Von niedlich bis seriös: Poken sind der Web 2.0-Trend des Jahres.
Ein Poken (oben abgebildet) ist eine moderne Visitenkarte, auf der man seine Daten abspeichern kann. Via USB wird das Poken an den PC angeschlossen und mit allen zuvor eingegebenen Details synchronisiert. Neben der Email-Adresse und der eigenen Homepage können auch sämtliche Profile für soziale Netzwerke hinterlegt werden. Die Datenübermittlung findet dann über die integrierte Schnittstelle an der vierfingrigen Hand des Poken statt. Man schüttelt also im übertragenen Sinne die Hand des Kontaktpartners und ist für alle Zukunft im Web vernetzt. Es können sogar verschiedene Profile angelegt werden: So tauscht man mit Freunden gern persönliche Interessen aus, mit dem Businesspartner aber eher nur die Mobilfunknummer und den Xing-Account. Passend dazu gibt es sowohl Poken im niedlichen Pandabär- oder Frankenstein-Look, als auch die in diesem Monat erscheinenden Business-Poken.
Frischer Wind für die Kommunikationsbranche ist eine gute Sache. Wenn dabei noch eine solch enorme Anzahl von Nutzern zusammen findet, dann darf man mit Sicherheit sagen, dass wir noch viel von Social Networking hören werden. Insbesondere, da viele Portale mittlerweile auch über mobile Endgeräte erreichbar sind und somit dafür sorgen, dass seine Nutzer auch im Büro, auf der Geburtstagsfete des besten Freundes oder in der Badewanne erreichbar bleiben und die Welt an ihrem Leben teilhaben lassen können.
]]>Der Trend der ständigen Erreichbarkeit zeichnet sich in der großen Masse ab: wer nicht an jedem Ort ständig für alle erreichbar ist, könnte die Chance seines Lebens verpassen. So glaubt der herangewachsene Konsummensch, dass nicht nur seine mobile Präsenz vonnöten ist, sondern benötigt zudem eine ständige Zugangsmöglichkeit zum World Wide Web.
Fortwährendes Wachstum der Mobilfunk-Einnahmen
Der Telekommunikationsmarkt bleibt von der Wirtschaftskrise beinahe unberührt.
Dank dieser Tatsache befindet sich die Telekommunikationsbranche derzeit in starkem Aufschwung. Dabei nimmt die Wirtschaftskrise kaum Einfluss auf den erfolgreichen Markt. Insbesondere Smartphones und mobile Datendienste lassen den Markt kontinuierlich ansteigen. Laut BITKOM (Bundesverband Informationswissenschaft, Telekommunikation und neue Medien) wird dieser auch weiterhin wachsen. So soll der Umsatz in diesem Jahr um 1% auf 1,32 Billionen steigen; nächstes Jahr dann nochmal um satte 3,5% in die Höhe schnellen.
Dienstleistungen vs Endgeräte
80% der Einnahmen fließen dabei in Telefon- und Internetdienste, 20% in Endgeräte und Infrastruktur. Wieder ein Beweis für die zunehmende Wichtigkeit ausgeklügelter Tarife und den Verbraucherwunsch der nahezu unbegrenzten Vernetzbarkeit. Unterstützend dazu prognostiziert EITO (European Information Technology Observatory), dass der Umsatz mit Telefondiensten weiterhin um etwa 2,7% ansteigen, der Umsatz mit Endgeräten hingegen mindestens um 5,6% fallen wird.
]]>Frau Dr. Stingel hat uns netterweise einige Fragen beantwortet:
Frage: Sehr geehrte Frau Dr. Stingel, Sie haben sich in ihrer Dissertation mit der Frage beschäftigt, wie und wo in Unternehmen über die Auswahl von Mobilfunktarifen entschieden wird und welche Präferenzen festzustellen sind. Gibt es hier möglicherweise Unterschiede im Hinblick auf Geschäftskunden aus unterschiedlichen Branchen oder ist vielleicht die Unternehmensgröße ein entscheidender Faktor?
Susanne Stingel: Das ist eine interessante Frage, die Raum für weitere Forschungsarbeiten bietet. Denn im Rahmen meiner empirischen Analyse konnte ich diese Fragen leider nicht detailliert untersuchen – hierfür sind wesentlich größere Datensätze erforderlich. In Expertengesprächen hat sich jedoch gezeigt, dass größere Unternehmen die Tarifwahl häufig professioneller durchführen als kleinere.
Frage: Viele Privatkunden stehen heute vor der Überlegung, ob für sie ein Flatrate-Tarif in Frage kommt. Gibt es hier von Ihrer Seite aus eine Empfehlung, was man bei einer solchen Entscheidung unbedingt berücksichtigen sollte?
Vergleichen lohnt sich: Treffen Sie die Entscheidung nicht aus dem Bauch heraus.
Susanne Stingel: Definitiv: Schreiben Sie sich über einige Wochen auf, wie häufig und wie lange Sie telefonieren – am besten auch in welche Netze. Dann können Sie mit diesen Informationen ein paar Vergleichsberechnungen machen und abschätzen, wie viel Sie in den für Sie in Frage kommenden Tarifen im Montat bezahlen würden. Die Flatrate muss nicht der günstigsten Tarif für Sie sein! Treffen Sie die Entscheidung nicht aus dem Bauch heraus, das kann Ihnen einige Euro im Monat sparen.
]]>Eine “Flatrate” ist ja zunächst einmal nichts anderes als ein Pauschaltarif. Der Kunde zahlt für die Nutzung einer bestimmten Dienstleistung oder eines Produkts eine fixe Gebühr pro Zeiteinheit. So einfach. Das kennen wir von der Monatskarte für den ÖPNV oder eben neuerdings von Angeboten der Telekommunikationsdienstleister.
Der „Flatrate-Bias”
Und prinzipiell sind Flatrates natürlich eine feine Sache: anstatt für jede einzelne Fahrt mit U-Bahn oder Bus einzeln zu bezahlen, entrichtet man eben den Obulus für die Zeitkarte und fährt dann den ganzen Monat. Doch wenn man sich die Nutzungsmuster von Pauschalangeboten genauer ansieht, so trifft man recht häufig auf einen interessanten Effekt: den sog. Flatrate-Bias. Kurz: ökonomisch betrachtet nutzen nicht alle Kunden das Angebot wirklich aus – wer nicht wirklich häufig mit dem öffentlichen Nahverkehr fährt, wäre möglicherweise mit Einzelfahrscheinen dennoch günstiger unterwegs gewesen…
Warum greifen wir doch immer wieder zu Flatrates?
Nichtsdestotrotz sind Flatrates sehr beliebt: Viele empirische Studien zeigen, dass sich Konsumenten häufig nicht für den günstigsten Tarif entscheiden, sondern Pauschaltarife bevorzugen. Eine Erklärung für das Zustandekommen des „Flatrate-Bias” ist möglicherweise das Phänomen der Verlustaversion: die Ökonomen Daniel Kahneman und Amos Tversky zeigten, dass wir Verluste scheuen und uns kleine Verluste stärker schmerzen.
Deshalb – wenn man dieser Erklärung folgt – erscheint es uns oft attraktiver einmal eine Pauschalgebühr zu entrichten, anstatt ständig kleine Beträge zahlen müssen.
Kein Wunder also, dass auch im Telekommunikationsbereich Flatrates so populär sind. Flatrate-Pakete, die Kommunikationsverbindungen zum Festpreis anbieten, gehören zu den beliebtesten Privatkunden-Tarifen. Kalkulierbare monatliche Kosten lassen viele Handy-Besitzer zu dieser Option greifen.
Neue Studie zur Flatrate-Nutzung im Geschäftskundenbereich
Bislang wurde das Phänomen allerdings nur für den Privatkundenbereich untersucht. Für den Geschäftskundensektor lagen bislang keine Studien vor. Diese Lücke wurde nun durch Dr. Susanne Stingel geschlossen.
Sie hat mittels telefonischer Befragung in mehr als 600 Unternehmen detaillierte Informationen zum Tarifwahlverhalten gesammelt. Dabei wurden die Entscheider für den Abschluss eines Mobilfunkvertrages befragt und die Nutzungsdaten durch Rechnungen ermittelt. Das Ergebnis zeigt Paralellen zum Privatkundenverhalten.
Auch Geschäftskunden nutzen gerne die Flatrate-Tarife, um sich vor unerwartet hohen Mobilfunkrechungen zu schützen („Versicherungseffekt”). Ein Bequemlichkeitseffekt ist ebenfalls festzustellen: Die Befragten fürchten, Einsparpotentiale durch richtige Tarifwahl würden möglicherweise von den Suchkosten für einen optimalen Tarif wieder „aufgefressen”.
Den größten Einfluss hat allerdings die im Geschäftskundenbereich typische Trennung zwischen Nutzern und Entscheidern. Anders als im Konsumgüterbereich ist der Entscheidungsträger in der Regel nicht selbst der Nutzer. Er schließt Verträge für andere ab, was eine Vorausberechnung des Nutzungsverhaltens erschwert. Die Arbeit von Susanne Stingel zeigt, dass auch Geschäftskunden vor Unsicherheiten bei der Wahl des richtigen Mobilfunk-Tarifs nicht gefeit sind
Für ihre Dissertation zum Thema “Tarifwahlverhalten im Business-to-Business-Bereich” wurde Susanne Stingel mit dem Förderpreis der Vodafone-Stiftung für Forschung ausgezeichnet. Die Kommunikationswissenschaftlerin war von 2004-2008 war als wissenschaftliche Mitarbeiterin am Institut für Anlagen und Systemtechnologien der Universität Münster tätig, wo sie letztes Jahr auch promovierte.
]]>Bereits gestern wurden hier einige Ergebnisse der jüngsten ARD-/ZDF-Onlinestudie vorgestellt; dabei wurde deutlich, dass vor allem die tägliche Nutzungszeit zunimmt. Doch die Studie liefert auch Antworten auf die Frage, welche Angebote von wem am stärksten genutzt werden.
Die Nutzungsmuster sind durch einen deutlichen Alters- bzw. Generationenbias geprägt. Und hierbei zeigt sich ein eindeutiger Trend: Online-Communitys stehen bei den 14-19jährigen hoch im Kurs (79% sind dort aktiv), bei den über 60jährigen sind das nur 8%.
Skeptische Senioren: Online-Communitys tun sich bei älteren Usern schwer
Ältere Internetnutzer sind nur sehr selten Mitglied bei Online-Communitys. Die Angebote und Portale, die auf sie zugeschnitten sind, scheinen der Zielgruppe entweder unbekannt oder es gibt andere Gründe, der die Generation 60+ davon abhält, ein Profil in einem Social-Network einzurichten.
Ganz anders ist das freilich bei der Schülergeneration. Die Mitgliedschaft bei SchuelerVZ, Wer-kennt-wen oder bei den Lokalisten, gehört quasi dazu. 79% der 14-19-Jährigen nutzen Social-Communitys mindestens einmal pro Woche. Und die allermeisten haben Accounts bei mehreren Portalen.
Und ein weiterer Unterschied wird ersichtlich: Instant-Messaging und die Nutzung von Youtube & Co. ist ebenfalls ein Jugendphänomen. Videos im Internet ansehen ist für 65% der jungen Nutzer bereits Alltag, bei den über 60-jährigen machen das gerade mal 6%.
Die Nutzung von Onlineanwendungen im Vergleich der Generationen:
Good-Bye TV: Das Fernsehen ist nur noch für ältere Mediennutzer das Leitmedium
Die Vorherrschaft des Fernsehens, wenn es um News und Orientierung geht, bröckelt.
Und in dem Maße, wie multimediale Onlineangebote in der Popularität steigen, geraten andere Medienformate in Schwierigkeiten. Bei den Jüngeren werden Video-Portale immer beliebter und auch Angebote wie die Mediatheken der Fernsehsender werden immer stärker genutzt. Und konsequenterweise ist ein weiterer Trend zu beobachten:
Die Vorherrschaft Primat des Fernsehens (wenn es um News geht) bröckelt. Nach aktuellen Untersuchungen suchen unter 30-Jährige Erstinformationen bereits heute mehrheitlich im Netz.
Insgesamt belegt das Fernsehen immer noch die Pole-Position, wenn es um die Beliebtheit und Nutzung geht – das liegt aber an der mittleren und älteren Altersklasse. Bei der jüngeren Generation (Teens und Twens) hat das Internet das Fernsehen allerdings eingeholt.
Der Internetuser des Jahres 2009 entdeckt mehr und mehr die Vorteile der Zeit- und Ortssouveränität des Internet…
Wie sind diese Befunde einzuordnen?
Grundsätzlich ist an den Werten eine Emanzipation der Nutzer abzulesen. Der eigensinnige Webnutzer, der die Vorteile der Zeit- und Ortssouveränität entdeckt hat, ist für klassische Medien mit festem Programmschema verloren…
Das ist also einer der anderen sichtbaren Trends, die die ARD-ZDF-Onlinestudie sichtbar macht: Mediennutzer lassen sich immer weniger zu bestimmten Terminen vor dem Fernsehsessel versammeln. Inhalte zu einem selbstgewählten Termin abzurufen – etwa in den Mediatheken – ist im Kommen. Der Mediennutzer der Zukunft wird sich weiter vom Gängelband der Sender und Produzenten emanzipieren!
Letzte Woche wurden die jüngsten Ergebnisse der 13. ARD/ZDF-Onlinestudie bekanntgegeben, die wie keine andere Untersuchung die Karriere des Internets nachzeichnet. Für die Studie wurden 1806 vollständige Interviews (1212 mit Online-Nutzern, 594 mit Offline-Nutzern) geführt.
Absolute Zuwachsraten schwächen sich ab
Die Auswertung macht deutlich: der enorme Zuwachs an Internetnutzern hat sich inzwischen abgeschwächt. Zahl der Onlinenutzer hat sich auf hohem Niveau (67,1%, das sind 43,5 Millionen Bundesbürger) stabilisiert. Der Zuwachs gegenüber dem Jahr 2008 betrug bescheidene 1,9%, das ist eine Zunahme von 800 000 Personen. Immerhin. Aber – wie Birgit van Eimeren und Beate Frees schreiben: *
“Dieser Anstieg bedeutet aber auch die geringste Wachstumsrate der Internetverbreitung seit Beginn der repräsentativen Messung der Internetnutzung in Deutschland.”
Und wenn man die Entwicklung extrapoliert, so dürften auch für die nächsten Jahre keine großen Sprünge mehr zu erwarten sein. Die Zuwächse kommen allenfalls marginal von neuen Nutzern jüngeren und mittleren Alters, dort sind heute schon 85-95% regelmäßig im Web unterwegs. Steigerungsraten sind lediglich bei den älteren Nutzern zu erwarten, bei denen das Internet gerade in den letzten 2-3 Jahren immer beliebter wurde.
Über alle Altersgrenzen hinweg läßt sich jedenfalls ein anderer Trend feststellen: die Internetnutzung wird immer alltäglicher, immer selbstverständlicher und immer stärker in den normalen Tagesablauf integriert. (Von den Befragten gaben 71,6% an, daß sie am Vortag das Internet genutzt hatten. 2008 waren das nur 68%.)
Immer mehr, immer länger
Und diese Entwicklung führt konsequenterweise dazu, daß die durchschnittliche Verweildauer im Netz inzwischen bei stattlichen 136 Minuten liegt, was einer Steigerung gegenüber dem Vorjahr um 16 Minuten entspricht (Männer 148 min, Frauen 122 min)
Eine weitere Veränderung gegenüber den Vorjahren ist bei den Nutzungsmotiven festzustellen; wie man in der Zusammenfassung in den aktuellen Media Perspektiven (07/2009) lesen kann:
“Heute sehen bereits 34 Prozent der Onliner das Internet als ihr „Primär-Medium” an, um sich im Alltag zurechtzufinden, aber nur 25 Prozent bzw. 24 Prozent schreiben diese Eigenschaft dem Fernsehen oder der Tageszeitung zu.”
Kurz: Wer einmal das Internet entdeckt hat, der greift immer seltener auf Fernsehen und andere Medien zurecht, wenn er schnelle Infos sucht und sich über das Tagesgeschehen auf dem laufenden halten will.
Hier die Entwicklung der letzten Jahre. In der unteren Zeile sieht man die steigende Popularität hinsichtlich der Nutzungsdauer des Internets:
In einem weiteren Beitrag werden an dieser Stelle einige interessante Details aus der Studie vorgestellt; für diesen ersten Teil lässt sich zusammenfassend feststellen:
Rechnet man die Internet-Nutzungsdauer für die Gesamtbevölkerung hoch, so ist 2009 jeder Erwachsene in Deutschland – unabhängig davon, ob Onliner oder Offliner – täglich 70 Minuten online. Gegenüber dem Vorjahr hat sich damit das Nutzungsvolumen um 12 Minuten erhöht.
Deutschland ist im Internet angekommen.
In Westeuropa und den USA übersteigt die Zahl der Handy-Verträge schon seit fast zwei Jahren die Zahl der Einwohner. Der Trend geht einfach zum Zweithandy, so dass auch die kleine Zahl der Handyverweigerer aufgewogen wird. In der EU steigt die Zahl der Mobilfunkanschlüsse 2009 nach der EITO-Prognose um 4 Prozent auf 641 Millionen.
Europa: Kaum mehr Wachstum, Verlagerung auf mobile Breitbanddienste
In Deutschland telefoniert bereits jeder fünfte Mobilfunknutzer mit einem UMTS-Handy.
Der Markt in Europa und anderen hochentwickelten Regionen ist eigentlich (fast) gesättigt. Und tatsächlich nimmt die Zahl der konventionellen Anschlüsse auf Basis der so genannten GSM-Technologie im laufenden Jahr um 5 Prozent ab. Dafür steigt die Zahl der UMTS-Anschlüsse um 36 Prozent auf rund 172 Millionen (in Deutschland gibt es den Schätzungen zufolge rund 23 Millionen UMTS-Handys). Ein ähnliches Bild zeigt sich in den USA, wo die Zahl der UMTS-Nutzer in diesem Jahr voraussichtlich um 74 Prozent auf 108 Millionen zunehmen werde.
Wachstum in Schwellenländern
Die Zahlen, die jetzt der Branchenverband Bitkom veröffentlicht, zeigen, daß vor allem Länder in Asien und Südamerika aufholen. Die Zahl der Handy-Nutzer in Indien steigt im Jahr 2009 voraussichtlich um 32 Prozent auf 457 Millionen. In Brasilien legt die Zahl der Mobilfunknutzer um 14 Prozent auf 172 Millionen zu und in China um 12 Prozent auf 684 Millionen.
Bis zum Jahresende rechnen die Fachleute mit 4,4 Milliarden Handynutzern. Zwei Drittel der Weltbevölkerung telefonieren dann also mobil.
]]>Erstaunlich ist, dass fast zwei Drittel der Internetnutzer zu Protokoll gaben, bereits selbst Daten ins Netz geladen und bereitgestellt zu haben. Damit übertrifft diese Zahl – wenn man den Ergebnissen der aktuellen Emnid-Befragung (im Auftrag von Vodafone) glauben schenken mag – sogar die Zahl der E-Mail-Nutzer. Möglicherweise müßte man genauer hinsehen, wie die Frage formuliert war – dennoch zeichnet sich ein Trend ab: das Internet wird als Sphäre begriffen, die zum Mitmachen einlädt. Ist das schon Prodnutzung im Sinne von Jan Schmidt und Tina Guenther?*
Mehr aktive Teilhabe im Netz
Egal: die Befragung von gut 1.000 zufällig ausgewählten Personen zeigt, dass das Internet und mobile Kommunikation immer aktiver und selbstbestimmter genutzt werden und auf die Gestaltung des Alltags immer mehr Einfluss gewinnt.
89% der jüngeren Internetnutzer sind Mitglied in sozialen Netzwerken.
47 Prozent der Befragten sind Mitglied in einem sozialen Netzwerk wie Facebook, StudiVZ oder Xing. Unter den 14- bis 29-Jährigen liegt der Anteil der Mitglieder in einer Online-Community sogar bei 89 Prozent.
Interessant ist – und damit könnte ein weit verbreitetes Vorurteil entkräftet werden – , dass 34 Prozent der befragten Personen angaben, dass sie durch das Internet gleichzeitig mehr reale soziale Kontakte haben, lediglich sieben Prozent weniger.
Außerdem steigert das Internet die öffentliche Diskussionsfreude der Deutschen. Während nur 20 Prozent der Befragten schon einmal einen Leserbrief an eine Zeitung geschrieben haben, waren 32 Prozent der Onliner bereits als Diskutanten im Internet aktiv. Bei den 14- bis 29-Jährigen Internetnutzern haben sich sogar 55 Prozent an Debatten auf Internetforen beteiligt, während sich nur elf Prozent in dieser Altersgruppe an einen eigenen Leserbrief erinnern.
Man darf gespannt sein, ob sich diese neue Kommunikations- und Diskussionsfreude eventuell auch im Wahlkampf-Endspurt bemerkbar macht.
—
* Als “Prodnutzung” kann man das Verschmelzen von aktiver Partizipation und Bereitstellung von (Informations-)Inhalten (=Produktionsaspekt) und “klassischer” Mediennutzung bezeichnen. Details dazu u.a.: Tina Guenther und Jan Schmidt: Wissenstypen im „Web 2.0″ — eine wissenssoziologische Deutung von Prodnutzung im Internet, in: Willems, H.: Weltweite Welten. Internet-Figurationen aus wissenssoziologischer Perspektive, 2008
Es begann als im Frühjahr 2008 Asus mit seinem Eee PC einen vollständig einsetzbaren Mini-Laptop präsentierte, der zum mobilen Surfen und Arbeiten prädestiniert war. Heute, gerade mal ein Jahr später, hat im Grunde jeder Notebook-Hersteller eines der schicken Netbooks im Sortiment. Doch der Boom auf die Netbooks könnte bald schon wieder zu Ende sein.
Ende der Intel- und Windowsvorherrschaft?
In den aktuellen Netbooks kommt Intels Atom-Prozessor zum Einsatz. Und sie basieren meist auf einer abgespeckten Windowsvariante als Betriebssystem oder auf einer Linux-Distribution. Der Angriff auf die populären Netbooks (30 Millionen werden davon dieses Jahr voraussichtlich über den Ladentisch gehen) kommt nun aus der Richtung der noch kleineren mobilen Endgeräte.
In den aufgepeppten und zum Arbeiten geeigneten Smartphones werden keine Intelprozessoren mehr verbaut. Stattdessen bringt der Chiphersteller Nvidia nun seinen Tegra-Chip in Stellung, der gegenüber Intel vor allem in Sachen Energieaufnahme und Grafik-/Videodarstellung punkten soll. Die Laufzeit der Geräte soll sich durch den Tegra vervielfachen, so das Versprechen.
Die Smartbooks haben mehr mit Handys und iPhones gemein, als mit dem klassischen Notebook. Längere Laufzeit, ständige Konnektivität und GPS-Positionierung inklusive.
Und auch in anderer Hinsicht haben die Smartbooks mehr mit Handys und iPhones gemein, als mit dem klassischen Notebook. Smartbooks sind ständig eingeschaltet, haben flexible Konnektivität zu verschiedenen Netzen und Providern, GPS-Positionierung und eine Batterieleistung von bis zu 10 Stunden. Und günstiger sollen die Smartbooks auch noch sein.
Das Weihnachtsgeschäft wird wohl zeigen, ob die Netbooks oder die Smartbooks das Rennen machen. Und deutlich wird, daß sich der Markt für ein Produkt nicht wirklich zuverlässig planen lässt. Denn ursprünglich waren die Netbooks von Asus durchaus für Schwellenländer gedacht – der Erfolg in den Industrienationen (wo die Netbooks sofort gierig von der Internetgeneration aufgenommen wurde) hat diese Idee aber (leider!) wieder begraben.
Heute sind Netbooks Lifestyle-Produkte – oder: Markenzeichen der “digitalen Bohème”. Mit den Smartbooks wird es nicht anders sein…
]]>Die Entwicklung hat durchaus revolutionäre Aspekte: bis vor kurzem war es ganz selbstverständlich, daß wir unsere Dokumente, E-Mails, Photos, Musik- und Videodateien auf unserem eigenen Rechner abspeichern und dort – mit ebenfalls auf den lokalen Speichermedien vorhandenen Softwarepaketen – bearbeiten und abspielen.
Doch genauso wie der Desktop-Rechner zu einer aussterbenden Spezies gehört, so wird in den nächsten Jahren das Prinzip der lokalen IT-Infrastruktur verabschiedet werden. Programme und Dokumente werden nicht mehr auf der heimischen Festplatte liegen, sondern irgendwo extern. In der Wolke. Auf daß sie uns immer Schatten spenden möge.
Offene Fragen: Datenschutz und Verfügbarkeit
“Cloud-Computing wird künftig eine zentrale Rolle in der Informationstechnologie spielen”, so stellte im Februar 2008 Microsoft-Boss Steve Ballmer fest. Und fügte hinzu, daß die Wolke “die Art und Weise, wie Computer benutzt und eingesetzt werden” tiefgreifend verändern werde. *
Der riesengroße Vorteil: Wir brauchen uns nie mehr mit Software-Updates rumärgern und haben überall Zugriff auf unsere Daten…
Wer heute das immer weiter anwachsende Sortiment an Diensten betrachtet, das Google seinen Nutzern anbietet, hat kaum Zweifel an Ballmers These. Ganz egal, ob es um GoogleMail, den Kalender oder die Text- und Tabellenkalkulationen geht, die Google (zum Nulltarif!) zur Verfügung stellt: sowohl die Software, als auch die bearbeiteten Dokumente befinden sich nicht mehr auf dem Rechner des Anwenders. Die Textverarbeitung wird – so darf man vermuten – bis in 1-2 Jahren per Browser-Interface genauso leistungsfähig sein, wie die besten stationären Office-Pakete.
Der reisengroße Vorteil ist freilich, daß wir uns nie mehr über Software-Updates sorgen machen müssen. Und unsere Texte, Tabellen und sonstigen Dokumente sollten eigentlich bei den Profis auch gut gesichert sein, oder? Und ein weiterer Vorteil sei nicht vergessen: wir können von verschiedenen Rechnern auf unsere Daten zugreifen und sie verändern.
Souveränitätserluste?
Doch Moment! Sprechen wir nicht von “unseren” Dokumenten? Wie kommen wir eigentlich dazu, daß wir private Korrespondenz, Mails oder Photos einem Dienstleister anvertrauen, über den wir strenggenommen nichts wissen? Sind die Daten dort wirklich gut aufgehoben? Was ist eigentlich mit der Datensicherheit?
Die Schattenseite der Wolke: Private Daten werden ausgelagert. An wen? Wer bürgt für die Sicherheit?
Daß solche Fragen noch nicht zufriedenstellend beantwortet sind, illustriert der wenige Tage zurückliegende Daten-GAU bei Twitter. Mehr als 300 interne Firmendokumente, die Twitter in der Google-Datenwolke abgelegt hatte, sind von Hackern kopiert und veröffentlicht worden. Peinlich für Twitter und peinlich für Google.
Ob Twitter künftig weiterhin sensible Daten in die Wolke auslagert? Ob wir es ebenfalls ganz selbstverständlich tun? Vermutlich ja. Weil wir kaum Alternativen haben werden. Und weil es praktisch und bequem ist. Die Wolke wird kaum aufzuhalten sein.
—
* Zitiert nach: Holger Schmidt: Internetgiganten kämpfen um die Wolke, FAZ
Dennoch illustriert der Nachrichten- und Medienhype rund um den tragischen Tod von Michael Jackson, wie zentral inzwischen die Online-Kommunikation geworden ist. Natürlich hatten auch Radios und Fernsehsender die Meldung über viele Stunden und Tage prominent platziert. Doch die Auflage der Zeitungen ist rückläufig, das Fernsehen wird immer stärker zum Nebenbei-Medium. Im Internet dagegen werden solche Nachrichten wie der Tod des Popstars zum tatsächlichen “Ereignis”.
Zukünftig werden wir uns daran gewöhnen müssen, dass Nachrichten auch ein Stückchen weniger nüchtern und “nachrichtlich” werden…
Das Ende der unpersönlich-abstrakten Nachricht
Dieses “Ereignis” besteht schlicht darin, dass in sekundenschnelle die Nachricht über die Social-Media-Kanäle (Twitter, Facebook, Myspace etc.) weitergetragen und dabei immer auch durch eine persönliche Note angereichert wird. Tweets über Jackos Tod enthielten eben fast immer auch eine persönliche Wertung; viele gaben ihrer Trauer Ausdruck, manche zeigten sich vollkommen geschockt, wieder anderer ergänzten die Nachricht mit individuellen Erinnerungen und schrieben beispielsweise, dass “Thriller” ihre erste Platte war.
Für die Zukunft werden wir uns wohl daran gewöhnen müssen, dass Nachrichten auch ein Stückchen weniger nüchtern und “nachrichtlich” werden; das ist jedenfalls eine der Lehren aus Jacksons Tod und dessen medialer Bearbeitung.
Belastungstest der Infrastruktur
Für den Dienst selbst, war das Ereignis ein heftiger Kapazitätstest. In einer Stunde trafen mehr als 100.000 Kurztexte zu Jackson ein; phasenweise musste die Suchfunktion des Kurznachrichtendienstes deaktiviert werden. Allerdings zeigt sich in der Zeitleiste deutlich, wie kurz (und wenig nachhaltig) diese Nachrichtenpeaks waren…
Als am 25. Juni die ersten Nachrichtenseiten den Herzinfarkt des “King of Pop” vermeldeten, brach natürlich auch eine globale Welle der Suchanfragen los. 30 der wichtigsten Internet-Nachrichtenseiten in den USA waren zeitweise nicht zu erreichen oder reagierten deutlich langsamer als üblich. Und weil Millionen User bei Google nach den aktuellsten News über Jacksons Tod suchten, quittierte sogar der Gigant seinen Dienst. Die Systeme gingen von einer kriminellen “Bot-Attacke” aus – und bekamen nur eine Fehlermeldung zu sehen.
Bei der Gedenkfeier verlief – wenigstens im weltweiten Datennetz – alles nach Plan. Obwohl allein der Livevideostream von CNN rund 9,7 Millionen mal abgerufen wurde*. Und doch ist dieser Wert kein Rekord. Bei der Amtseinführung von Barack Obama wurde der Livestream von 27 Millionen Menschen verfolgt.
* Die Werte stammen aus diesem Mashable-Posting.
]]>Wenn man etwa die transatlantischen Verbindungen ansieht, so zeigt sich, dass hier momentan noch genügend Kapazitäten zur Verfügung stehen. Denn als Ende der 90er Jahre der erste Internet-Hype begann (der dann im Frühjahr 2000 in der Dot-Com-Blase zerplatzte), wurde von Spekulanten verstärkt in Transatlantik-Kabel investiert. Insgesamt wurden sechs dicke Glasfaserkabel zwischen den USA und Europa am Meeresboden verlegt.
Die gesamte Bandbreite über den Atlantik liegt – nach aktuellen Erhebungen des IT-Beratungsunternehmens Telegeography – bei knapp 40 Terabit pro Sekunde (Tbit/s).
Derzeit steht ausreichend Seekabel-Kapazität zur Verfügung
Der Datenverkehr wird schätzungsweise jährlich um ein Drittel ansteigen. Bis in 5 Jahren könnten die freien Kapazitäten erschöpft sein.
Im Jahr 2008 wurden durchschnittlich rund 10 Terabit pro Sekunde beansprucht. Eine Menge Luft also, sollte man meinen. Aber schon dieses Jahr werden es voraussichtlich 14 Terabit sein, was ungefähr 800.000 komplett genutzten ADSL-2+-Leitungen im Downstream entspricht.
Und nach den Einschätzungen der Experten soll der Datenverkehr jährlich weiterhin um rund ein Drittel anwachsen. Das heißt aber, daß es bereits 2014 eng werden könnte. Spätestens bis dahin müssten also neue Kabel in Betrieb genommen werden, doch aktuell wagt sich noch kein Akteur aus der Deckung.
Wenn die Kapazitäten knapper werden, könnten auch die Preise für die Nutzung des Internets steigen.
Denn auch die Datenfernspediteure denken in wirtschaftlichen Zyklen und arbeiten derzeit gerade mal kostendeckend. Die Preise sind – aufgrund der bestehenden Überkapazität – einfach recht gering. Eine Investition in die Zukunft will auf dieser Basis gerade niemand wagen. Dabei benötigt die Planung und Verlegung von transatlantischen Seekabeln natürlich eine gewisse Vorlaufzeit.
Man darf gespannt sein, wer hier zuerst aktiv wird. Denn sonst könnte es sein, dass wir in einigen Jahren etwas gänzlich Unbekanntes erleben: nämlich eine Stagnation oder gar eine Verminderung der Internetgeschwindigkeiten. Und – wenn die Kapazitäten knapper werden – könnten auch die Preise für die Nutzung des Internets steigen. Wobei: im letzten Absatz gab es reichlich Konjunktive. Sicher ist also nichts.
Die Antworten stehen in den Sternen bzw. liegen auf dem Meeresgrund.
—
Die weltweiten Untersee-Kabel (Stand 2007):
Ein Text zum selben Thema findet sich auch hier bei TechnologyReview.
]]>Die Zeitungen sterben – vielleicht nicht aus, aber ihre Auflagen sind in den vergangenen Jahren doch deutlich zurück gegangen. Die unvermeidbare Wandlung unserer Mediennutzung durch Onlinemedien schreitet voran – und mit Sicherheit wird sich die Nutzung des Internets in ein paar Jahren nicht mehr nur auf den Schreibtisch beschränken.
Schon heute können Vielbeschäftigte mit einem Blackberry jederzeit ins Netz, beantworten Emails und lesen die neuesten Nachrichten sicher schneller als mit WAP-basiertem Internet. Häufigstes Argument gegen den mobilen Computer und für die gute, alte Zeitung ist jedoch: “Da hat man was in der Hand.” Eine Zeitung ist haptisch aber auch für den Lesenden eine völlig andere Erfahrung als kurze Meldungen auf einem kleinen Bildschirm. Doch das könnte sich bald ändern.
Wie die Wirtschaftswoche meldet, plant Vodafone bereits im Herbst ein elektronisches Lesegerät für Zeitungen und Bücher anzubieten. Über das Vodafone-Netz sollen Zeitungen direkt an den Nutzer verschickt werden können – gelesen wird dann auf einem etwa DIN-A4-großen Gerät.
Vertrieben werden soll das Gerät über Verlage – dort bietet sich besonders an, die Lesegeräte an den Verkauf von Abonnements zu knüpfen. Das Angebot soll zunächst exklusiv in Deutschland getestet werden.
Sicher: Für wahre Bücherfreunde, die ein richtiges Buch zwischen ihren Fingern spüren möchten, sind die elektrischen Lesegeräte nichts. Aber um Informationen schnell nachzuschlagen, sind die tragbaren Geräte handlicher und überschaubarer als etwa der 30-bändige Brockhaus – und umweltfreundlicher ist es auch.
]]>Aus den verschiedenen Bereichen der Mobilfunkforschung ist Nanotechnologie heute nicht mehr wegzudenen. Ohne Nanotechnologie wären weder moderne Computerfestplatten vorstellbar noch Flachbildschirme. Und auch Handys würden wohl um einiges klobiger ausfallen, wenn sie nicht mit den winzigen Nanomaterialien ausgestattet wären.
So nutzen zum Beispiel Flash-Speicher, wie sie etwa in den Speicherkarten von Fotohandys stecken, den quantenphysikalischen “Tunneleffekt”: Dabei überwinden elektrische Ladungsträger eine nicht leitende Barriere. Mit den physikalischen Gesetzmäßigkeiten ist dieses “Durchtunneln” durch atomare Wände nicht erklärbar – in der Quantenmechanik sind diese Gesetze der Nanotechnik einzigartig.
Auch Licht wird in Handys bis in den Nanometerbereich verkleinert. In sogenannten Organischen Leuchtdioden (OLEDs) wird eine ultradünne Farbstoffschicht durch Stromfluss zum Leuchten gebracht. OLED-Module können zum Beispiel in Anzeigeelementen eine blendfreie Beleuchtung in verschiedenen Farben erzeugen.
Bereits heute finden OLEDs in verschiedenen elektronischen Geräten Anwendung. Sie können nicht nur den weltweiten Energieverbrauch zur Lichterzeugung verringern, sondern auch die Qualität des Lichts verbessern.
An einem besonders spannenden, nanotechnologischen Projekt wird momentan an der Universität Cambridge geforscht: Dort soll in Kooperation mit Nokia ein flexibles, streckbares und selbstreinigendes Mobiltelefon entwickelt werden. Die besonderen Herausforderungen am sogenannten Morph-Handy liegen in der Kombination bereits bekannter Technologien: flexible Materialien und transparente Elektronik gibt es zwar – sie wurden aber noch nie gemeinsam eingesetzt.
Zwar ist es bis zum Morph-Handy noch ein weiter Weg – nach Schätzungen der Forscher könnten wir aber in etwa sieben Jahren mit den ersten High-End-Geräten rechnen.
]]>Für seine Forschungsarbeit ist Oechtering am Dienstag mit dem Förderpreis der Vodafone-Stiftung für Forschung ausgezeichnet wurden.
Bereits heute werden in Mobilfunknetzen Relaisantennen eingesetzt, um die Reichweite zu steigern. Relaisantennen empfangen Signale der Basisstationen, leiten sie Endgeräte weiter und vermitteln umgekehrt Gespräche oder Datenverbindungen zurück ins Netz. Da drahtlose Geräte nicht auf derselben Frequenz gleichzeitig senden und empfangen können, wird die doppelte Bandbreite im Netzwerk benötigt. Um trotzdem nahezu parallel senden und empfangen zu können, wird das so genannte Halbduplex-Verfahren eingesetzt.
Oechtering untersuchte in seiner Arbeit wie das Relais bidirektional arbeiten kann und somit der Bandbreitenverlust minimiert wird. Ansatz seiner Forschung ist ein Zweiphasenprotokoll, in dem die Relaisstation die Nachrichten für beide Richtungen gleichzeitig dekodiert und weiterleitet.
Weiterhin gibt Oechterings Studie Aufschluss darüber, wie Teilnehmergeräte im Netzwerk eine für sie günstige Relaisstation in der Umgebung finden können.
Oechtering ist derzeit im German-Sino Lab for Mobile Communications (MCI) des Fraunhofer Heinrich- Hertz-Institutes tätig. Weiterhin ist er seit November 2008 als Post-Doktorand am KTH Royal Institute of Technology in Stockholm, Schweden. Dort forscht er im Rahmen des EU-Projekts FeedNetBack und zu seinem Fachgebiet Zweiwege-Relaiskommunikation.
]]>Wenn ein amerikanischer Filmpreis an einen Deutschen geht, dann denkt man am ehesten an einen Eichinger, Emmerich oder auch: von Donnersmarck. Regisseure und Produzenten, die sich im internationalen Filmgeschäft behaupten konnten. Weniger bekannt, wenngleich auf seinem Gebiet sehr, sehr erfolgreich ist der Berliner Ingenieur Prof. Thomas Wiegand – und der erhielt bereits zwei mal einen der begehrten Emmys.
Denn ohne Wiegands Forschungen der vergangenen Jahre, gäbe es vermutlich keine Blue-Rays, keine Handyvideos, keine hochaufgelösten Videos im Netz – beziehungsweise wenn, dann in geringerer Qualität. Der Videostandard H.264/MPEG4-AVC wurde von Wiegand und seinem Team am Fraunhofer Heinrich-Hertz-Institut in Berlin entwickelt – allerdings begann der Elektrotechniker bereits kurz nach seiner Diplomprüfung im Jahr 1995, sich mit der Codierung von Videosignalen zu beschäftigen.
Das Besondere an H.264 ist die hohe Qualität der drahtlos übermittelten Videos: Obwohl Bewegtbild auf etwa halb so viele Bits wie mit früheren Verfahren komprimiert wird, geht sichtbar keine Qualität verloren. Zugleich verkürzen sich die Ladezeiten für Videos – ein per UMTS versandtes Video kann dadurch ohne Zeitverzögerung abgespielt werden.
Seine Arbeiten werden die Art und Weise, wie wir Filme genießen auch künftig prägen.
Nach zwei Emmys, einem Joseph-von-Fraunhofer-Preis, einem Group Technical Achievement Award der European Association for Signal Processing und dem Best Paper Award der IEEE Transactions on Circuits and Systems for Video Technology vergibt die Vodafone Stiftung für Forschung nun einen der insgesamt drei Preise diesen Jahres an Thomas Wiegand. “Mit Professor Wiegand ehren wir einen Wegbereiter der modernen Medien-Nutzung,” erklärt der CEO des Unternehmens, Fritz Joussen. “Seine Arbeiten werden die Art und Weise, wie wir Filme oder Fernsehen unterwegs genießen auch künftig prägen.”
In Zukunft soll es mittel hochentwickelter Videostandards auch möglich sein, Bewegtbild vollautomatisch zu analysieren und von Suchmaschinen katalogisieren zu lassen. Außerdem sollen dreidimensionale Umgebungen und Videostreams mit einem 360-Grad-Panorama als Videoformate entwickelt werden – Professor Dr. Wiegand und sein Team arbeiten bereits daran.
]]>Seit 1997 werden besondere Leistungen auf dem Gebiet der Mobilfunkforschung jährlich mit dem Vodafone-Innovationspreis ausgezeichnet. Dabei werden nicht nur technische Entwicklungen prämiert – auch andere Disziplinen wie Psychologie und Naturwissenschaften haben die Möglichkeit bei der Auszeichnung auf ihre Kosten zu kommen.
In diesem Jahr teilen sich drei deutsche Wissenschaftler die insgesamt 35.000 Euro Preisgeld für ihre Innovationen. Einer von ihnen ist bereits aus einem größeren Zusammenhang bekannt – er erhielt bereits zwei Mal einen Emmy!
Professor Dr.-Ing. Thomas Wiegand hatte maßgeblichen Anteil an der Entwicklung des H.264 Videostandards – heute ist diese Technik aus hoch auflösenden Fernsehern, Blue-Ray-Discs und MobileTV nicht mehr wegzudenken. Diese Leistung wurde bereits im letzten Jahr mit einem Emmy für Ingenieurswissenschaften ausgezeichnet. Mit H.264 können bewegte Bilder deutlich schneller und in besserer Qualität auf Endgeräten wie iPods oder Handys übertragen werden.
Die einzige in diesem Jahr ausgezeichnete Frau, Dr. Susanne Stingel, beschäftigte sich mit der Marktforschung. Sie untersuchte empirisch, wonach sich Kunden für oder gegen einen bestimmten Tarif entscheiden. Lohnt sich eine Flatrate – oder rechne ich meine Telefonkosten lieber einzeln ab? Ihre Untersuchung hat gezeigt, dass Entscheidungen auch in diesem Bereich oft irrational getroffen werden – und es sich lohnt, vor Vertragsabschluss möglichst genau das eigene Telefonierverhalten zu reflektieren.
Dr.-Ing. Tobias Josef Oechtering von der TU Berlin hingegen untersuchte, wie sich Kommunikationsnetze entlasten lassen. Mit seinen sogenannten bidirektionalen Relaisstationen können Funknetze ihren Informationen mit weniger Aufwand transportieren – die dadurch frei werdende Bandbreite entlastet sowohl den Nutzer als auch dem Betreiber des Netzes.
In den folgenden Tagen werden alle drei Projekte in diesem Blog näher vorgestellt. Es lohnt sich also, wieder reinzulesen!
]]>Schon komisch: Obwohl der Siegeszug des Mobilfunks auf der Einigung auf ein europäisches Netz basiert, heißt unser tragbares Telefon doch in fast jedem Land anders. Ob nun als Natel in der Schweiz oder cep telefonu auf Türkisch – eine einheitliche Bezeichnung für dieses Gerät gibt es nicht. Und sein Name bedeutet auch nicht überall dasselbe:
Aber fangen wir bei uns an: “Handy” macht zwar Sinn, weil es auf Englisch “praktisch” oder “griffbereit” bedeuten kann – seinen Ursprung hat dieser Scheinanglizismus auf der Insel aber nicht. Im zweiten Weltkrieg entwickelte Motorola zunächst rucksackgroße Funkgeräte – die Urgroßvätergeneration der Walkie-Talkies. Etwas später produzierte der Hersteller auch tragbare Funkgeräte, die eher einem großen Telefonhörer glichen – die Handie-Talkies. Zwischen alternativen Bezeichnungen wie “Handfunke”, “Handfunkgerät – kurz HFG” oder “Mobilfunke” setzte sich das “Handy” im Laufe der Achtziger Jahre durch.
Und während unsere niederländischen Nachbarn in den meisten Gegenden zwar vom possierlichen “mobieltje” sprechen, heißen Handys dort in einigen Regionen auch schlicht GSM – wie der Standard für volldigitale Mobilfunknetze “Global System for Mobile Communications”. Einen besonders niedlichen Namen für ihre Handys haben auch die Schweden: Dort wird das Telefon auch gerne mal “nalle” genannt – Teddy. Weil man es ja dauernd mit sich führt und beinahe schon Gefühle für das kleine Gerät entwickelt.
Ausgerechnet die Schweiz, die ja mit Schoki, Nastuch und Füdli ansonsten aus jedem Wort irgendwie etwas Süßes zaubern kann, hält sich beim Handy zurück. “Natel”. Nationales Autotelefon – das ist sogar ein geschützter Begriff. Schade eigentlich. Dafür gaben sich die Italiener mit ihrer Bezeichnung im Diminutiv redlich Mühe: Ein Handy ist dort ein “telefonino”.
In arabischen Ländern drückt das Jawwal ( جوال ) aus, was mit einem Handy passiert – es ist “das, was durch die Gegend spaziert”. Ähnlich ist es in der türkischen Sprache – das “cep telefonu” ist eben das das “Hosentaschentelefon”. Und auf Gälisch ist das “fón póca” ein “Taschentelefon”.
Ihren Charakter als technische Innovation werden Handys in Israel wohl nie verlieren – das “pelefon” ist ein “Wundertelefon” – besseres Marketing könnten sich die Hersteller wohl kaum wünschen.
]]>