Dass Hans Leyendecker seine Karriere mal bei der Westfälischen Rundschau begonnen hat (und er aus diesen Zeiten immer noch BvB-Fan ist!), kann kaum glauben, wer diese und andere Ruhrzeitungen heute mal in die Hand nimmt.
Am schlimmsten heruntergekommen: Die WAZ und die Ruhr Nachrichten.
Früher war die SPD eine Bastion und die Blätter arbeiteten sich an ihr ab. Liberale lasen die WAZ, Konservative die Ruhr Nachrichten. Es tobten Redeschlachten zwischen Leitartiklern und Leserbriefschreibern, wie z.B. dem GRÜNEN Richard Kelber, über den geplanten Flughafen, über Stromheizungen und und und.
Und heute: Käseblätter in der Hand von Investoren. Alles bunt und strotzend vor "Ganz konkretem Nutzwertjournalismus für den Leser". Die Technik wird immer besser und die Inhalte immer öder und dümmer. Als gäbe es da einen direkten Zusammenhang.
Heiße Themen werden überhaupt nicht mehr verfolgt. Nee, das beunruhigt den Leser nur. Der will ja einen "Mehrwert" oder "Nutzwert" aus seiner Zeitung. Der Investor versteht darunter eine von Reklame strotzende Zeitung mit viel Klimbim und Homestories über Hundehochzeiten.
Klar, das Internet mit seiner Kostenlosgewohnheit hat uns versaut. Die Einnahmen sanken und die Schnäppchenjäger aus der Private Equity Branche rochen Blut. Doch wie in in anderen Branchen vorher, bringen diese kurzfristig denkenden Kapitalgeber mit ihren McKinsey Beratern nur qualitativen Niedergang und mentale Verwahrlosung. Aber allmählich habe ich keine Lust mehr auf "kostenlos, aber dumm". Man merkt es deb großen Portalen ja auch an. Da gibt es Tages- oder Stundenaufreger und Meinungen über Tages- oder Stundenaufreger. Aber keiner wühlt mehr im Dreck.
Dabei gibt es gerade jetzt etliches aufzudecken. Jetzt, da wir einen "stillen Staatsstreich" (Tagesspiegel) erleben. Da wir zur Beute geworden sind von einer Täterschicht, die sich die öffentlichen Kassen, die öffentliche Infrastruktur und die Rentenrücklagen etlicher Privatsparer zur Beute gemacht hat und uns als Geiseln genommen hat, damit wir immer noch Geld nachschießen.
Den Redaktionen fehlt es an Mitteln, um einem Asmussen, einem Schmidt-Deguelle, einem Rösler, einem Ackermann, einem einem Mehdorn oder Ulrich Homburg mal so richtig nachzusteigen.
Die Frankfurter Rundschau, die ZEIT und die Süddeutsche sind da rühmliche Ausnahmen. Die FR hat z.B. die Machenschaften der Hessischen Finanzverwaltung verfolgt. Unter Roland Koch werden ja große Steuerhinterzieher aus der Täterschicht brutalst möglich geschont und für die Refinanzierung dieser Steuerausfälle die Sozialetats gekürzt.
Und eine weitere Ausnahme, eine der letzten Bastionen sind die öffentlich Rechtlichen. Frontal 21, Monitor, Report etc. sind das letzte Aufgebot gegen die Systemveränderer in der Berliner Wilhelmstr. 74 und der Frankfurter Theodor-Heuss-Allee. Und das ist der Grund, warum sich die FAZ und die WELT die Finger wund tippen gegen die GEZ-Gebühr. Und warum Roland Koch schamlos den Chefredakteuer des ZDF auswechseln lässt, nur weil der über kein Parteibuch zu packen ist.
Droht uns also allmählich der Niedergang der vierten Gewalt?
Nicht, wenn wir annehmen können, dass es immer Leser geben wird, die die Wahrheit wissen wollen. Und wenn wir annehmen können, dass es unter Journalisten und Redakteuren Leute gibt, die die Wahrheit herausfinden wollen. Solche Netzwerke wie die "Ruhrbarone" (Link) finde ich ein gutes Beispiel dafür, wie der neue Trend aussehen könnte. Die Ruhrbarone wühlen in den Kommunen und im Land. Führen Interviews und bringen Berichte. Das ganze liest sich so viel authentischer als WAZ und Ruhr Nachrichten. Das brauchen wir.
Und ausgerechnet in den USA gibt es einen Gegentrend: Und ausgerechnet Rupert Murdoch geht nun dazu über, den Kostenlosjournalismus allmählich abzuschaffen. Online Artikel kosten nun wieder Geld. Peu a peu führt er das ein, z.B. beim Wallstreet Journal.
Und: Es gibt eine neue Plattform für die Methode "Fund a story". Hier markieren Journalisten Themen, für die sie Geld sammeln. "Spot.US" ist so ein Beispiel (Link). Sobald genügend Geld beisammen ist, geht die Arbeit los.
Man stelle sich das in Deutschland vor. Man könnte den Scope noch erweitern, in dem man nicht nur Geld sammelt, sondern auch Quellen. Aus der Wilhelmstraße, aus den Ministergärten...
Ich glaube, wir dürfen annehmen, dass interessierten, mündigen Lesern und Zuschauern guter Journalismus auch weiterhin einen Preis wert ist. Sie sind unsere Verbündeten bei der Verhinderung des gerade stattfindenden "stillen Staatsstreichs". Wenn wir uns nicht für dumm verkaufen lassen wollen, müssen wir eine Mark oder zwei für guten Journalismus ausgeben.
Freitag, 22. Januar 2010
Dienstag, 19. Januar 2010
Vor zehn Jahren: Power Quality wird Dienstleistung
RWE Energie war vor fünfzehn Jahren der erste deutsche Energieversorger, der mit Netzrückwirkungen nicht nur irgendwie zurande kommen wollte, sondern den Ehrgeiz entwickelte, daraus einen Mehrwert zu entwickeln.
Ich war noch Werkstudent, als ich zur Hauptabteilung Elektrotechnik stieß. Eine Hochburg von elektrotechnischem Knowhow, das lange Jahre nur für den Fall des Falles gepflegt wurde. Doch Mitte der Neunziger Jahre häuften sich immer schwierigere Probleme in Kundeninstallationen, auf die die Regionalversorgungen vor Ort keine Antwort fanden.
Gepulste Stromrichterantriebe sorgten für immer mehr "Netzverschmutzungen" wie Oberschwingungen, Spannungsspitzen oder Spannungseinbrüche. Gleichzeitig stieg die Anzahl sensibler Geräte, die gerade auf solche Netzrückwirkungen verschnupft reagierten. Unter ungünstigen Bedingungen konnte ein schwerer Antrieb beim Hochlauf die Netzspannung so tief runterziehen, dass der ihn steuernde Rechner ausstieg. Von einem Automobilhersteller wussten wir, dass die Vielzahl von Servoantrieben am Band die Robotersteuerungen abstürzen ließen. Und in Hotels, die soeben alle Zimmer auf Energiesparlampen umgestellt hatten, funktionierte abends kein PC mehr.
Aber nicht nur innerhalb einzelner Kundenanlagen häuften sich die Probleme. Aus Energieversorgersicht summierten sich die Probleme mehrerer Kunden im Netz. Pulslasten im MW-Bereich in Mittelspannungsnetzen waren keine Seltenheit mehr.
Z.B. in der Nähe von Windkraftanlagen.
Große Netzbetreiber konnten dieser Entwicklung also nicht mehr tatenlos zusehen. Denn die Probleme störten nicht nur die Kunden. Auch die Netzkapazitäten wurden von diesen Effekten ausgelastet, ohne dass es einen Wert für den Energieversorger gehabt hätte. Es musste also etwas unternommen werden.
Die Hauptabteilung entwickelte eine Lösung, die den Netzrückwirkungen sozusagen mit ihren eigenen Waffen beikommen wollte: Stromrichter mit schnellen Prozessoren sollten die u(t)-Kurven aller drei Drehstromphasen im Millisekundenbereich messen und "in Form biegen".
Unter dem Aktenzeichen EP 727859 wurde der "Powerconditioner" zum Patent angemeldet.
Würde solch ein Powerconditioner die Spannungsqualität wieder herstellen können, würde sowohl für den Netzbetreiber als auch den Kunden hoher Nutzen entstehen. Denn für Power Quality Kunden gilt: Die nicht gelieferten Kilowattstunden sind die teuersten.
Ich schrieb zu dieser Zeit meine Diplomarbeit.
Der einsetzende Boom von Telekommunikation und IT sorgte für immer größeren Bedarf an Power Quality. Rechenzentren haben sehr hohen Energiebedarf und leisten hohe Wertschöpfung. Unternehmen wie Börsenplätze, Kreditkartenunternehmen, Onlineshops etc. machen hohe Umsätze pro Minute. Energiebedingte Ausfälle wären hier ärgerlich und teuer. Solche Kunden achteten nicht nur auf ihren Kilowattstundenpreis, sondern auch auf hohe Zuverlässigkeit. Was könnte näher liegen, als sich hier zu positionieren?
Eine Aufgabe dabei war jedoch organisatorischer Natur: Wie sollten wir das "geballte Expertenwissen" über Power Quality und Powerconditioner den vielen Regionalversorgungen und einzelnen Kunden verfügbar machen?
Und hier hatte ich dann eine Idee: Ohnehin vom Internetboom infiziert las ich alles, was mir zu den neuen Möglichkeiten der Onlinekommunikation in die Finger kam. U.a. auch das Buch "Net Gain" über Online Communities. Und so kam mir die Idee, solch eine "Community of practice" zu organisieren. Eine Plattform, auf der sich sowohl die Experten mit ihrem theoretischem Wissen, als auch die Betriebstechniker vor Ort mit ihrem praktischen Wissen und die Kunden mit ihrem Problemwissen auf einer Onlineplattform treffen und ihr Wissen austauschen.
Diese Idee reichte ich im Herbst 1999 beim ersten konzernweiten Geschäftsideenwettbewerb ein. Meinen Diplomarbeitsbetreuer lud ich ein, mitzumachen. Im Dezember erfuhr ich, dass wir damit den zweiten Platz gewonnen hatten. Und am 20. Januar 2000 war auf der Konzerntagung die Auszeichnung durch den damaligen Vorstandsvorsitzenden Dr. Dietmar Kuhnt. Das ist nun genau zehn Jahre her. Kinder, wie die Zeit vergeht...
Ich war noch Werkstudent, als ich zur Hauptabteilung Elektrotechnik stieß. Eine Hochburg von elektrotechnischem Knowhow, das lange Jahre nur für den Fall des Falles gepflegt wurde. Doch Mitte der Neunziger Jahre häuften sich immer schwierigere Probleme in Kundeninstallationen, auf die die Regionalversorgungen vor Ort keine Antwort fanden.
Gepulste Stromrichterantriebe sorgten für immer mehr "Netzverschmutzungen" wie Oberschwingungen, Spannungsspitzen oder Spannungseinbrüche. Gleichzeitig stieg die Anzahl sensibler Geräte, die gerade auf solche Netzrückwirkungen verschnupft reagierten. Unter ungünstigen Bedingungen konnte ein schwerer Antrieb beim Hochlauf die Netzspannung so tief runterziehen, dass der ihn steuernde Rechner ausstieg. Von einem Automobilhersteller wussten wir, dass die Vielzahl von Servoantrieben am Band die Robotersteuerungen abstürzen ließen. Und in Hotels, die soeben alle Zimmer auf Energiesparlampen umgestellt hatten, funktionierte abends kein PC mehr.
Aber nicht nur innerhalb einzelner Kundenanlagen häuften sich die Probleme. Aus Energieversorgersicht summierten sich die Probleme mehrerer Kunden im Netz. Pulslasten im MW-Bereich in Mittelspannungsnetzen waren keine Seltenheit mehr.
Z.B. in der Nähe von Windkraftanlagen.
Große Netzbetreiber konnten dieser Entwicklung also nicht mehr tatenlos zusehen. Denn die Probleme störten nicht nur die Kunden. Auch die Netzkapazitäten wurden von diesen Effekten ausgelastet, ohne dass es einen Wert für den Energieversorger gehabt hätte. Es musste also etwas unternommen werden.
Die Hauptabteilung entwickelte eine Lösung, die den Netzrückwirkungen sozusagen mit ihren eigenen Waffen beikommen wollte: Stromrichter mit schnellen Prozessoren sollten die u(t)-Kurven aller drei Drehstromphasen im Millisekundenbereich messen und "in Form biegen".
Unter dem Aktenzeichen EP 727859 wurde der "Powerconditioner" zum Patent angemeldet.
Würde solch ein Powerconditioner die Spannungsqualität wieder herstellen können, würde sowohl für den Netzbetreiber als auch den Kunden hoher Nutzen entstehen. Denn für Power Quality Kunden gilt: Die nicht gelieferten Kilowattstunden sind die teuersten.
Ich schrieb zu dieser Zeit meine Diplomarbeit.
Der einsetzende Boom von Telekommunikation und IT sorgte für immer größeren Bedarf an Power Quality. Rechenzentren haben sehr hohen Energiebedarf und leisten hohe Wertschöpfung. Unternehmen wie Börsenplätze, Kreditkartenunternehmen, Onlineshops etc. machen hohe Umsätze pro Minute. Energiebedingte Ausfälle wären hier ärgerlich und teuer. Solche Kunden achteten nicht nur auf ihren Kilowattstundenpreis, sondern auch auf hohe Zuverlässigkeit. Was könnte näher liegen, als sich hier zu positionieren?
Eine Aufgabe dabei war jedoch organisatorischer Natur: Wie sollten wir das "geballte Expertenwissen" über Power Quality und Powerconditioner den vielen Regionalversorgungen und einzelnen Kunden verfügbar machen?
Und hier hatte ich dann eine Idee: Ohnehin vom Internetboom infiziert las ich alles, was mir zu den neuen Möglichkeiten der Onlinekommunikation in die Finger kam. U.a. auch das Buch "Net Gain" über Online Communities. Und so kam mir die Idee, solch eine "Community of practice" zu organisieren. Eine Plattform, auf der sich sowohl die Experten mit ihrem theoretischem Wissen, als auch die Betriebstechniker vor Ort mit ihrem praktischen Wissen und die Kunden mit ihrem Problemwissen auf einer Onlineplattform treffen und ihr Wissen austauschen.
Diese Idee reichte ich im Herbst 1999 beim ersten konzernweiten Geschäftsideenwettbewerb ein. Meinen Diplomarbeitsbetreuer lud ich ein, mitzumachen. Im Dezember erfuhr ich, dass wir damit den zweiten Platz gewonnen hatten. Und am 20. Januar 2000 war auf der Konzerntagung die Auszeichnung durch den damaligen Vorstandsvorsitzenden Dr. Dietmar Kuhnt. Das ist nun genau zehn Jahre her. Kinder, wie die Zeit vergeht...
Vor zehn Jahren: Power Quality wurde Dienstleistung
RWE Energie war vor fünfzehn Jahren der erste deutsche Energieversorger, der mit Netzrückwirkungen nicht nur irgendwie zurande kommen wollte, sondern den Ehrgeiz entwickelte, daraus einen Mehrwert zu entwickeln.
Ich war noch Werkstudent, als ich zur Hauptabteilung Elektrotechnik stieß. Eine Hochburg von elektrotechnischem Knowhow, das lange Jahre nur für den Fall des Falles gepflegt wurde. Doch Mitte der Neunziger Jahre häuften sich immer schwierigere Probleme in Kundeninstallationen, auf die die Regionalversorgungen vor Ort keine Antwort fanden.
Gepulste Stromrichterantriebe sorgten für immer mehr "Netzverschmutzungen" wie Oberschwingungen, Spannungsspitzen oder Spannungseinbrüche. Gleichzeitig stieg die Anzahl sensibler Geräte, die gerade auf solche Netzrückwirkungen verschnupft reagierten. Unter ungünstigen Bedingungen konnte ein schwerer Antrieb beim Hochlauf die Netzspannung so tief runterziehen, dass der ihn steuernde Rechner ausstieg. Von einem Automobilhersteller wussten wir, dass die Vielzahl von Servoantrieben am Band die Robotersteuerungen abstürzen ließen. Und in Hotels, die soeben alle Zimmer auf Energiesparlampen umgestellt hatten, funktionierte abends kein PC mehr.
Aber nicht nur innerhalb einzelner Kundenanlagen häuften sich die Probleme. Aus Energieversorgersicht summierten sich die Probleme mehrerer Kunden im Netz. Pulslasten bzw. Oberschwingungsleistungen im MW-Bereich in Mittelspannungsnetzen waren keine Seltenheit mehr. Z.B. in der Nähe von Windkraftanlagen.
Große Netzbetreiber konnten dieser Entwicklung also nicht mehr tatenlos zusehen. Denn die Probleme störten nicht nur die Kunden. Auch die Netzkapazitäten wurden von diesen Effekten ausgelastet, ohne dass es einen Wert für den Energieversorger gehabt hätte. Es musste also etwas unternommen werden.
Die Hauptabteilung entwickelte eine Lösung, die den Netzrückwirkungen sozusagen mit ihren eigenen Waffen beikommen wollte: Stromrichter mit schnellen Prozessoren sollten die u(t)-Kurven aller drei Drehstromphasen im Millisekundenbereich messen und "in Form biegen".
Unter dem Aktenzeichen EP 727859 wurde der "Powerconditioner" zum Patent angemeldet.
Würde solch ein Powerconditioner die Spannungsqualität wieder herstellen können, würde sowohl für den Netzbetreiber als auch den Kunden hoher Nutzen entstehen. Denn für Power Quality Kunden gilt: Die nicht gelieferten Kilowattstunden sind die teuersten.
Ich schrieb zu dieser Zeit meine Diplomarbeit.
Der einsetzende Boom von Telekommunikation und IT sorgte für immer größeren Bedarf an Power Quality. Rechenzentren haben sehr hohen Energiebedarf und leisten hohe Wertschöpfung. Unternehmen wie Börsenplätze, Kreditkartenunternehmen, Onlineshops etc. machen hohe Umsätze pro Minute. Energiebedingte Ausfälle wären hier ärgerlich und teuer. Solche Kunden achteten nicht nur auf ihren Kilowattstundenpreis, sondern auch auf hohe Zuverlässigkeit. Was könnte näher liegen, als sich hier zu positionieren?
Eine Aufgabe dabei war jedoch organisatorischer Natur: Wie sollten wir das "geballte Expertenwissen" über Power Quality und Powerconditioner den vielen Regionalversorgungen und einzelnen Kunden verfügbar machen?
Und hier hatte ich dann eine Idee: Ohnehin vom Internetboom infiziert las ich alles, was mir zu den neuen Möglichkeiten der Onlinekommunikation in die Finger kam. U.a. auch das Buch "Net Gain" über Online Communities. Und so kam mir die Idee, solch eine "Community of practice" zu organisieren. Eine Plattform, auf der sich sowohl die Experten mit ihrem theoretischem Wissen, als auch die Betriebstechniker vor Ort mit ihrem praktischen Wissen und die Kunden mit ihrem Problemwissen auf einer Onlineplattform treffen und ihr Wissen austauschen.
Diese Idee reichte ich im Herbst 1999 beim ersten konzernweiten Geschäftsideenwettbewerb ein. Im Dezember erfuhr ich, dass ich damit den zweiten Platz gewonnen hatte. Und am 20. Januar 2000 war auf der Konzerntagung die Auszeichnung durch den damaligen Vorstandsvorsitzenden Dr. Dietmar Kuhnt. Das ist nun genau zehn Jahre her. Kinder, wie die Zeit vergeht...
Ich war noch Werkstudent, als ich zur Hauptabteilung Elektrotechnik stieß. Eine Hochburg von elektrotechnischem Knowhow, das lange Jahre nur für den Fall des Falles gepflegt wurde. Doch Mitte der Neunziger Jahre häuften sich immer schwierigere Probleme in Kundeninstallationen, auf die die Regionalversorgungen vor Ort keine Antwort fanden.
Gepulste Stromrichterantriebe sorgten für immer mehr "Netzverschmutzungen" wie Oberschwingungen, Spannungsspitzen oder Spannungseinbrüche. Gleichzeitig stieg die Anzahl sensibler Geräte, die gerade auf solche Netzrückwirkungen verschnupft reagierten. Unter ungünstigen Bedingungen konnte ein schwerer Antrieb beim Hochlauf die Netzspannung so tief runterziehen, dass der ihn steuernde Rechner ausstieg. Von einem Automobilhersteller wussten wir, dass die Vielzahl von Servoantrieben am Band die Robotersteuerungen abstürzen ließen. Und in Hotels, die soeben alle Zimmer auf Energiesparlampen umgestellt hatten, funktionierte abends kein PC mehr.
Aber nicht nur innerhalb einzelner Kundenanlagen häuften sich die Probleme. Aus Energieversorgersicht summierten sich die Probleme mehrerer Kunden im Netz. Pulslasten bzw. Oberschwingungsleistungen im MW-Bereich in Mittelspannungsnetzen waren keine Seltenheit mehr. Z.B. in der Nähe von Windkraftanlagen.
Große Netzbetreiber konnten dieser Entwicklung also nicht mehr tatenlos zusehen. Denn die Probleme störten nicht nur die Kunden. Auch die Netzkapazitäten wurden von diesen Effekten ausgelastet, ohne dass es einen Wert für den Energieversorger gehabt hätte. Es musste also etwas unternommen werden.
Die Hauptabteilung entwickelte eine Lösung, die den Netzrückwirkungen sozusagen mit ihren eigenen Waffen beikommen wollte: Stromrichter mit schnellen Prozessoren sollten die u(t)-Kurven aller drei Drehstromphasen im Millisekundenbereich messen und "in Form biegen".
Unter dem Aktenzeichen EP 727859 wurde der "Powerconditioner" zum Patent angemeldet.
Würde solch ein Powerconditioner die Spannungsqualität wieder herstellen können, würde sowohl für den Netzbetreiber als auch den Kunden hoher Nutzen entstehen. Denn für Power Quality Kunden gilt: Die nicht gelieferten Kilowattstunden sind die teuersten.
Ich schrieb zu dieser Zeit meine Diplomarbeit.
Der einsetzende Boom von Telekommunikation und IT sorgte für immer größeren Bedarf an Power Quality. Rechenzentren haben sehr hohen Energiebedarf und leisten hohe Wertschöpfung. Unternehmen wie Börsenplätze, Kreditkartenunternehmen, Onlineshops etc. machen hohe Umsätze pro Minute. Energiebedingte Ausfälle wären hier ärgerlich und teuer. Solche Kunden achteten nicht nur auf ihren Kilowattstundenpreis, sondern auch auf hohe Zuverlässigkeit. Was könnte näher liegen, als sich hier zu positionieren?
Eine Aufgabe dabei war jedoch organisatorischer Natur: Wie sollten wir das "geballte Expertenwissen" über Power Quality und Powerconditioner den vielen Regionalversorgungen und einzelnen Kunden verfügbar machen?
Und hier hatte ich dann eine Idee: Ohnehin vom Internetboom infiziert las ich alles, was mir zu den neuen Möglichkeiten der Onlinekommunikation in die Finger kam. U.a. auch das Buch "Net Gain" über Online Communities. Und so kam mir die Idee, solch eine "Community of practice" zu organisieren. Eine Plattform, auf der sich sowohl die Experten mit ihrem theoretischem Wissen, als auch die Betriebstechniker vor Ort mit ihrem praktischen Wissen und die Kunden mit ihrem Problemwissen auf einer Onlineplattform treffen und ihr Wissen austauschen.
Diese Idee reichte ich im Herbst 1999 beim ersten konzernweiten Geschäftsideenwettbewerb ein. Im Dezember erfuhr ich, dass ich damit den zweiten Platz gewonnen hatte. Und am 20. Januar 2000 war auf der Konzerntagung die Auszeichnung durch den damaligen Vorstandsvorsitzenden Dr. Dietmar Kuhnt. Das ist nun genau zehn Jahre her. Kinder, wie die Zeit vergeht...
Sonntag, 17. Januar 2010
Wie Nostalgieeffekte entstehen
Vor ein paar Jahren lief im Spätabendprogramm vom WDR Fernsehen die Dokuserie "Super 8 um Mitternacht". Zuschauer sandten ihre alten Super 8 Filme ein und der WDR sendete eine Zusammenstellung über den Äther.
Die Filme waren aus den Sechzigern und Siebzigern und meistens unspektakuär. Dafür aber authentisch. Aber gerade die, die nur den Alltag auf Zelluloid gespeichert hatten, enthielten alles für einen nostalgischen Abend: Straßenszenen mit alten Autos, alten Straßenbahnen alter Werbung. Vor allem aber: Menschen mit Frisuren und Kleidung, die in Wohnungen mit Möbeln leben und manchmal ein Weihnachtsbaum im Hintergrund.
Und obwohl einem die Gefilmten eigentlich fremd sind, sind sie einem unheimlich vertraut. Es könnten unsere Aufnahmen vom Urlaub im Schwarzwald sein. Es könnte mein erster Schultag sein. Und es könnte unsere Baustelle sein.
Weil die wesentlichen Details stimmen. Der Wiedererkennungswert liegt bei über 50%, wenn nicht 90%, auch wenn wir es nicht selbst sind. Ähnlich ist der Effekt auf der Klassentreffen-Website Stayfriends. Schon das Klassenfoto aus der Grundschulzeit auf der Homepage ist so typisch, dass ich es zu 80% für mein eigenes halte, obwohl es das nicht ist.
Der holländische Psychologieforscher Douwe Draaisma hat in seinem Buch "Warum das Leben schneller vergeht, wenn man älter wird" (Link) erklärt, woher dieser Effekt kommt:
Obwohl wir seit Jahren in einer Art Permanentschleife von Retrotrends leben, hat das Entscheidende immer noch Seltenheitswert und nutzt sich nicht ab: Aufnahmen, mit den Details unseres damaligen Alltags. Als Beispiel zeigt er ein Foto aus einem 70er Jahre Badezimmer. Die Waschmaschine hat einen Abwasserschlauch aus Gummi, der in die Badewanne führt. Es gibt ein Spülbecken mit einem Gummischlauch am Wasserhahn.
Was uns selbstverständlich ist, fotografieren wir nicht. Weil wir es nicht einmal wahrnehmen. Schon gar nicht sind wir uns der Endlichkeit des Nichtwahrgenommenen bewusst. Zuerst leben wir täglich zu 100% mit den vertrauten Details. Dann sind sie plötzlich weg und wir fallen von 100 auf 0% und dabei bleibt es.
Als z.B. der neue Berliner Hauptbahnhof gebaut wurde, wäre es schlauer gewesen, noch mal ein Foto vom alten Lehrter Bahnhof zu machen. Stattdessen haben wir alle auf das Neue gewartet und dann fotografiert, als gäbe es ihn morgen nicht mehr. Gleiches gilt vom Quartier rund um den Bahnhof Zoo. Da wurde eine altvertraute Struktur abgerissen, die die meisten schon nicht mehr sehen konnten (im doppelten Sinne des Wortes).
Aber es gibt auch das allmähliche, unbemerkte Verschwinden, das beim Wiedersehen einen großen Aha-Effekt auslöst: Autos, Moden, Werbung.
Für einen Fotografen ist es also eine interessante Herausforderung zu überlegen, welche Details unseren Alltag so definieren, dass wir uns nach ihrem Verschwinden über sie identifizieren werden? Die sollte man rechtzeitig fotografieren, zumindest aber nicht ausblenden. Doch wir sind beim Auslösen immer auf das Besondere des Moments und gerade nicht das alltägliche fixiert.
Das macht diese Alltagsfotos und Filme so selten und teuer. Aber vielleicht werden wir auch bald über Google und YouTube unsere Vergangenheit immer vollständiger und näher rekonstruieren können und auf einem USB-Stick mit uns herumtragen können.
Die Filme waren aus den Sechzigern und Siebzigern und meistens unspektakuär. Dafür aber authentisch. Aber gerade die, die nur den Alltag auf Zelluloid gespeichert hatten, enthielten alles für einen nostalgischen Abend: Straßenszenen mit alten Autos, alten Straßenbahnen alter Werbung. Vor allem aber: Menschen mit Frisuren und Kleidung, die in Wohnungen mit Möbeln leben und manchmal ein Weihnachtsbaum im Hintergrund.
Und obwohl einem die Gefilmten eigentlich fremd sind, sind sie einem unheimlich vertraut. Es könnten unsere Aufnahmen vom Urlaub im Schwarzwald sein. Es könnte mein erster Schultag sein. Und es könnte unsere Baustelle sein.
Weil die wesentlichen Details stimmen. Der Wiedererkennungswert liegt bei über 50%, wenn nicht 90%, auch wenn wir es nicht selbst sind. Ähnlich ist der Effekt auf der Klassentreffen-Website Stayfriends. Schon das Klassenfoto aus der Grundschulzeit auf der Homepage ist so typisch, dass ich es zu 80% für mein eigenes halte, obwohl es das nicht ist.
Der holländische Psychologieforscher Douwe Draaisma hat in seinem Buch "Warum das Leben schneller vergeht, wenn man älter wird" (Link) erklärt, woher dieser Effekt kommt:
Obwohl wir seit Jahren in einer Art Permanentschleife von Retrotrends leben, hat das Entscheidende immer noch Seltenheitswert und nutzt sich nicht ab: Aufnahmen, mit den Details unseres damaligen Alltags. Als Beispiel zeigt er ein Foto aus einem 70er Jahre Badezimmer. Die Waschmaschine hat einen Abwasserschlauch aus Gummi, der in die Badewanne führt. Es gibt ein Spülbecken mit einem Gummischlauch am Wasserhahn.
Was uns selbstverständlich ist, fotografieren wir nicht. Weil wir es nicht einmal wahrnehmen. Schon gar nicht sind wir uns der Endlichkeit des Nichtwahrgenommenen bewusst. Zuerst leben wir täglich zu 100% mit den vertrauten Details. Dann sind sie plötzlich weg und wir fallen von 100 auf 0% und dabei bleibt es.
Als z.B. der neue Berliner Hauptbahnhof gebaut wurde, wäre es schlauer gewesen, noch mal ein Foto vom alten Lehrter Bahnhof zu machen. Stattdessen haben wir alle auf das Neue gewartet und dann fotografiert, als gäbe es ihn morgen nicht mehr. Gleiches gilt vom Quartier rund um den Bahnhof Zoo. Da wurde eine altvertraute Struktur abgerissen, die die meisten schon nicht mehr sehen konnten (im doppelten Sinne des Wortes).
Aber es gibt auch das allmähliche, unbemerkte Verschwinden, das beim Wiedersehen einen großen Aha-Effekt auslöst: Autos, Moden, Werbung.
Für einen Fotografen ist es also eine interessante Herausforderung zu überlegen, welche Details unseren Alltag so definieren, dass wir uns nach ihrem Verschwinden über sie identifizieren werden? Die sollte man rechtzeitig fotografieren, zumindest aber nicht ausblenden. Doch wir sind beim Auslösen immer auf das Besondere des Moments und gerade nicht das alltägliche fixiert.
Das macht diese Alltagsfotos und Filme so selten und teuer. Aber vielleicht werden wir auch bald über Google und YouTube unsere Vergangenheit immer vollständiger und näher rekonstruieren können und auf einem USB-Stick mit uns herumtragen können.
Samstag, 16. Januar 2010
OPEL scheitert mit Markenklage gegen Spielzeughersteller
Wer am Tabellenende steht, bellt am lautesten. So auch das Management der Adam Opel AG. Anstatt sich auf die Entwicklung erfolgreicher Produkte zu konzentrieren, bissen sie denjenigen, der beim Nachwuchst dafür sorgen will, dass OPEL nicht ganz in Vergessenheit gerät: Den Hersteller eines fenkferngesteuerten Astra V8.
Adam Opel AG hat seine Marke auch für die Warengattung Spielzeug eintragen lassen. Zu welchem Zweck? Aus Sicht des Markenrechts wäre der Zweck, entweder als Hersteller von Spielzeug aufzutreten oder ein Spielzeug namens Opel zu vermarkten.
Eine Marke (hier der "OPEL Blitz") ist ein Hinweis auf die Herkunft eines Produktes.
Der Hersteller einer Nachbildung von echten Opel Autos ist damit nicht zu belangen. Weil es keine ernsthafte Verwechslungsgefahr gibt, das Spielzeugauto sei von Opel hergestellt. (Man kann es auch nicht als Prototypen eines kommenden Elektroastras interpretieren ;-) Das hat der BGH nun festgestellt.
Damit ist auch mal in der Öffentlichkeit klar gestellt, "mit welchem Recht" man Spielzeugautos den Originalen nachempfinden darf: Weil es verkleinerte Nachbildungen der geschützten Originale zu anderen Zwecken sind.
Und das ist gut so!
Adam Opel AG hat seine Marke auch für die Warengattung Spielzeug eintragen lassen. Zu welchem Zweck? Aus Sicht des Markenrechts wäre der Zweck, entweder als Hersteller von Spielzeug aufzutreten oder ein Spielzeug namens Opel zu vermarkten.
Eine Marke (hier der "OPEL Blitz") ist ein Hinweis auf die Herkunft eines Produktes.
Der Hersteller einer Nachbildung von echten Opel Autos ist damit nicht zu belangen. Weil es keine ernsthafte Verwechslungsgefahr gibt, das Spielzeugauto sei von Opel hergestellt. (Man kann es auch nicht als Prototypen eines kommenden Elektroastras interpretieren ;-) Das hat der BGH nun festgestellt.
Damit ist auch mal in der Öffentlichkeit klar gestellt, "mit welchem Recht" man Spielzeugautos den Originalen nachempfinden darf: Weil es verkleinerte Nachbildungen der geschützten Originale zu anderen Zwecken sind.
Und das ist gut so!
OPEL scheitert mit Markenklage gegen Spielzeughersteller
Wer am Tabellenende steht, bellt am lautesten. So auch das Management der Adam Opel AG. Anstatt sich auf die Entwicklung erfolgreicher Produkte zu konzentrieren, bissen sie denjenigen, der beim Nachwuchst dafür sorgen will, dass OPEL nicht ganz in Vergessenheit gerät: Den Hersteller eines fenkferngesteuerten Astra V8.
Adam Opel AG hat seine Marke auch für die Warengattung Spielzeug eintragen lassen. Zu welchem Zweck? Aus Sicht des Markenrechts wäre der Zweck, entweder als Hersteller von Spielzeug aufzutreten oder ein Spielzeug namens Opel zu vermarkten.
Eine Marke (hier der "OPEL Blitz") ist ein Hinweis auf die Herkunft eines Produktes.
Der Hersteller einer Nachbildung von echten Opel Autos ist damit nicht zu belangen. Weil es keine ernsthafte Verwechslungsgefahr gibt, das Spielzeugauto sei von Opel hergestellt. (Man kann es auch nicht als Prototypen eines kommenden Elektroastras interpretieren ;-) Das hat der BGH nun festgestellt.
Damit ist auch mal in der Öffentlichkeit klar gestellt, "mit welchem Recht" man Spielzeugautos den Originalen nachempfinden darf: Weil es verkleinerte Nachbildungen der geschützten Originale zu anderen Zwecken sind.
Und das ist gut so!
Adam Opel AG hat seine Marke auch für die Warengattung Spielzeug eintragen lassen. Zu welchem Zweck? Aus Sicht des Markenrechts wäre der Zweck, entweder als Hersteller von Spielzeug aufzutreten oder ein Spielzeug namens Opel zu vermarkten.
Eine Marke (hier der "OPEL Blitz") ist ein Hinweis auf die Herkunft eines Produktes.
Der Hersteller einer Nachbildung von echten Opel Autos ist damit nicht zu belangen. Weil es keine ernsthafte Verwechslungsgefahr gibt, das Spielzeugauto sei von Opel hergestellt. (Man kann es auch nicht als Prototypen eines kommenden Elektroastras interpretieren ;-) Das hat der BGH nun festgestellt.
Damit ist auch mal in der Öffentlichkeit klar gestellt, "mit welchem Recht" man Spielzeugautos den Originalen nachempfinden darf: Weil es verkleinerte Nachbildungen der geschützten Originale zu anderen Zwecken sind.
Und das ist gut so!
Freitag, 15. Januar 2010
iPhone goes Powermanagement, Smart Grid
Haben wir nicht gestern erst gelesen, dass Google in den US-Strommarkt einsteigen will? Hier nun die Reaktion von Apple:
Apple hat Haushaltscomputer als Quelle für Stromverschwendung entdeckt: Viele User lassen ihren PC den ganzen Tag im Leerlauf, nur um an seinen USB-Ports mobile Geräte aufzuladen.
Apple analysiert nun die Prozesse, die der PC (bzw. iMac!) ausführt und prüft, ob deren Energieverbräuche innerhalb der genehmigten Kostenrahmen liegen. Dabei werden die Kosten gemäß dem dann geltenden Tarif berechnet. Hierzu kann eine Verbindung zum Energieversorger hergestellt werden. Womit wir im Hypethema "Smart Grid" wären.
Schon vor zehn Jahren war uns bei RWE klar, dass IT und Telekommunikation die kommenden Energieverbaucher sind. Ich hatte mal ausgerechnet, dass eine Bestellung bei amazon 300g Kohle verbraucht ;-) Es ist keine triviale Aufgabe, einen Standort für ein Rechenzentrum zu finden, an dem gleichermaßen der Bedarf an elektrischer Leistung und Bandbreite gedeckt werden kann.
Aber auch im kleinen Maßstab, im Haushalt, spielen der permanent laufende Rechner und WLAN Router inzwischen eine Rolle. Apple will die Energiekosten einzelner Rechnerkomponenten und -prozesse zum Maßstab dafür machen, ob oder wann diese ablaufen können. Beispiele sind:
- Der Download eines Films über iTunes
- Ladeprozesse für Mobilgeräte wie iPod und iPhone.
- Druckaufträge
- Netzwerkrouter
Das senkt die Energiekosten des Users, auch wenn es hier jeweils nur um kleine elektrische Leistungen geht. Aber aufs Jahr hochgerechnet kommt einiges zusammen. Multipliziert man diese Methode millionenfach, wird es auch für den Energieversorger interessant, weil er seine zu produzierende Leistung "glätten" kann. Das senkt seine Energiegestehungskosten.
Patentaktenzeichen: US 020100010857 A1
Gefunden über: areamobile.de
Apple hat Haushaltscomputer als Quelle für Stromverschwendung entdeckt: Viele User lassen ihren PC den ganzen Tag im Leerlauf, nur um an seinen USB-Ports mobile Geräte aufzuladen.
Apple analysiert nun die Prozesse, die der PC (bzw. iMac!) ausführt und prüft, ob deren Energieverbräuche innerhalb der genehmigten Kostenrahmen liegen. Dabei werden die Kosten gemäß dem dann geltenden Tarif berechnet. Hierzu kann eine Verbindung zum Energieversorger hergestellt werden. Womit wir im Hypethema "Smart Grid" wären.
Schon vor zehn Jahren war uns bei RWE klar, dass IT und Telekommunikation die kommenden Energieverbaucher sind. Ich hatte mal ausgerechnet, dass eine Bestellung bei amazon 300g Kohle verbraucht ;-) Es ist keine triviale Aufgabe, einen Standort für ein Rechenzentrum zu finden, an dem gleichermaßen der Bedarf an elektrischer Leistung und Bandbreite gedeckt werden kann.
Aber auch im kleinen Maßstab, im Haushalt, spielen der permanent laufende Rechner und WLAN Router inzwischen eine Rolle. Apple will die Energiekosten einzelner Rechnerkomponenten und -prozesse zum Maßstab dafür machen, ob oder wann diese ablaufen können. Beispiele sind:
- Der Download eines Films über iTunes
- Ladeprozesse für Mobilgeräte wie iPod und iPhone.
- Druckaufträge
- Netzwerkrouter
Das senkt die Energiekosten des Users, auch wenn es hier jeweils nur um kleine elektrische Leistungen geht. Aber aufs Jahr hochgerechnet kommt einiges zusammen. Multipliziert man diese Methode millionenfach, wird es auch für den Energieversorger interessant, weil er seine zu produzierende Leistung "glätten" kann. Das senkt seine Energiegestehungskosten.
Patentaktenzeichen: US 020100010857 A1
Gefunden über: areamobile.de
iPhone goes Powermanagement / Smart Grid
Haben wir nicht gestern erst gelesen, dass Google in den US-Strommarkt einsteigen will? Hier nun die Reaktion von Apple:
Apple hat Haushaltscomputer als Quelle für Stromverschwendung entdeckt: Viele User lassen ihren PC den ganzen Tag im Leerlauf, nur um an seinen USB-Ports mobile Geräte aufzuladen.
Apple analysiert nun die Prozesse, die der PC (bzw. iMac!) ausführt und prüft, ob deren Energieverbräuche innerhalb der genehmigten Kostenrahmen liegen. Dabei werden die Kosten gemäß dem dann geltenden Tarif berechnet. Hierzu kann eine Verbindung zum Energieversorger hergestellt werden. Womit wir im Hypethema "Smart Grid" wären.
Schon vor zehn Jahren war uns bei RWE klar, dass IT und Telekommunikation die kommenden Energieverbaucher sind. Ich hatte mal ausgerechnet, dass eine Bestellung bei amazon 300g Kohle verbraucht ;-) Es ist keine triviale Aufgabe, einen Standort für ein Rechenzentrum zu finden, an dem gleichermaßen der Bedarf an elektrischer Leistung und Bandbreite gedeckt werden kann.
Aber auch im kleinen Maßstab, im Haushalt, spielen der permanent laufende Rechner und WLAN Router inzwischen eine Rolle. Apple will die Energiekosten einzelner Rechnerkomponenten und -prozesse zum Maßstab dafür machen, ob oder wann diese ablaufen können. Beispiele sind:
- Der Download eines Films über iTunes
- Ladeprozesse für Mobilgeräte wie iPod und iPhone.
- Druckaufträge
- Netzwerkrouter
Das senkt die Energiekosten des Users, auch wenn es hier jeweils nur um kleine elektrische Leistungen geht. Aber aufs Jahr hochgerechnet kommt einiges zusammen. Multipliziert man diese Methode millionenfach, wird es auch für den Energieversorger interessant, weil er seine zu produzierende Leistung "glätten" kann. Das senkt seine Energiegestehungskosten.
Patentaktenzeichen: US 020100010857 A1
Gefunden über: areamobile.de
Apple hat Haushaltscomputer als Quelle für Stromverschwendung entdeckt: Viele User lassen ihren PC den ganzen Tag im Leerlauf, nur um an seinen USB-Ports mobile Geräte aufzuladen.
Apple analysiert nun die Prozesse, die der PC (bzw. iMac!) ausführt und prüft, ob deren Energieverbräuche innerhalb der genehmigten Kostenrahmen liegen. Dabei werden die Kosten gemäß dem dann geltenden Tarif berechnet. Hierzu kann eine Verbindung zum Energieversorger hergestellt werden. Womit wir im Hypethema "Smart Grid" wären.
Schon vor zehn Jahren war uns bei RWE klar, dass IT und Telekommunikation die kommenden Energieverbaucher sind. Ich hatte mal ausgerechnet, dass eine Bestellung bei amazon 300g Kohle verbraucht ;-) Es ist keine triviale Aufgabe, einen Standort für ein Rechenzentrum zu finden, an dem gleichermaßen der Bedarf an elektrischer Leistung und Bandbreite gedeckt werden kann.
Aber auch im kleinen Maßstab, im Haushalt, spielen der permanent laufende Rechner und WLAN Router inzwischen eine Rolle. Apple will die Energiekosten einzelner Rechnerkomponenten und -prozesse zum Maßstab dafür machen, ob oder wann diese ablaufen können. Beispiele sind:
- Der Download eines Films über iTunes
- Ladeprozesse für Mobilgeräte wie iPod und iPhone.
- Druckaufträge
- Netzwerkrouter
Das senkt die Energiekosten des Users, auch wenn es hier jeweils nur um kleine elektrische Leistungen geht. Aber aufs Jahr hochgerechnet kommt einiges zusammen. Multipliziert man diese Methode millionenfach, wird es auch für den Energieversorger interessant, weil er seine zu produzierende Leistung "glätten" kann. Das senkt seine Energiegestehungskosten.
Patentaktenzeichen: US 020100010857 A1
Gefunden über: areamobile.de
Wer nicht weiß wohin, geht in die Mitte
Parteien, die -wenn sie an der Regierung sind- die Spaltung der Gesellschaft vorantreiben und die Mittelschicht misshandeln, sollten nicht verkünden, dass "Wahlen in der Mitte gewonnen werden".
Das gilt nicht nur für die CDU. Das gilt für alle Parteien, die ihre Marketingprospekte an den tagesaktuellen Umfragebörsenkursen ausrichten. Dieser sogenannte "Pragmatismus" von Parteivorsitzenden soll ja nur den verdorrenen politischen Kern kaschieren. Bürokratisch perfektionierte Parteiapparate haben karriereorientierte aber unpolitische Funktionäre an ihre Spitzen gehievt und wissen angesichts schwindender "Markanteile" nicht mehr wohin. Ihre einzige Qualifikation ist, dass sie sich in den selbst geschaffenen Bürokratien auskennen. Wenn die politische Entkernung der Traditionsparteien Raum für neue Parteien schafft, dann müssen diese Parteien verstehen, dass sie dies selbst verursacht haben und dürfen nicht so tun, als sei dies ein unbeeinflussbarer Trend (wie Horst Seehofer dies in dieser Woche tat). Die CDU ist nämlich derzeit auf bestem Wege, es der SPD nachzumachen, die Stammwählerschaft zu räumen, um Raum für eine neue Partei zu schaffen.
Die Orientierung an der "Mitte" ist heute kein Bekenntnis mehr zu einer Gesellschaftsschicht. Sondern ein Indiz dafür, dass man keine Ziele und keine Ideen mehr hat. So wie woanders auch. An der Börse z.B. orientiert man sich an Indizes. Und bei Nebel auf der Straße orientiert man sich am Mittelstreifen.
Und in vielen Unternehmen ist es ebenfalls so. Wo Manager statt Unternehmer regieren, orientiert man sich am Mittelwert dessen, was die anderen Unternehmen machen. Und wenn das alle so machen, entstehen Einheitsbreis. Nicht besser als im Sozialismus: Einheitliche Bürokratien, Produkte, Mentalitäten.
In solchen Organisationen sind Funktionäre und Manager die ganze Woche mit der Schaffung und dem Ausfüllen von Formularen beschäftigt. Auf inhaltliche Fragen darf man sie nicht ansprechen. In die Zukunft schauen und Ideen entwickeln kann man mit ihnen nicht. Ängstlich schotten sie sich ab und verkünden am Ende der Woche neue Formulare.
Besonders perfide ist es, das Melken einer Gesellschaftsschicht als besondere "Fürsorge" zu bezeichnen. Es ist die Mitte, von der alle reden und es ist die Mitte, bei der alles abgeladen wird: Die Haftung für die Marodeure in Bankenvorständen, die Rettung des Klimas, die Finanzierung des "Aufbau Ost" usw.
Eine Partei ist wie ein Anwalt, der sich für die eigenen Interessen einsetzt. Wenn viele ähnliche Interessen haben, die sich an ähnlichen Werten ausrichtet, gründen sie eine Partei. Ich erwarte von meiner Partei die Vertretung meiner Interessen und die Orientierung an meinen Werten. Andernfalls bin ich in der falschen Partei.
Ich brauche keine Partei, die nicht mehr weiß, wofür sie steht und eine neue Aufgabe sucht. Wenn Funktionäre ihre Mitglieder nach dem Sinn und Zweck der Partei befragen müssen, dann kann man das als "basisnah" bezeichnen - oder als "verzweifelt". Solange die amtierenden Funktionäre am Ende entscheiden, wird nichts gewonnen. Die Basis muss ihre Vorsitzenden stürzen, abwählen, nach Hause schicken. Das gilt sowohl für den Bundes- als auch den Landesverband.
Ähnlich in Unternehmen, in denen bei schlechten Wetteraussichten die Mitarbeiter zu Kreativtiätswettbewerben aufgerufen werden und das Management stellt lediglich die Formulare für die "Bewertung" der Ideen bei.
Kurzum: Die besten Unternehmen sind die, die von einem Gründer und Unternehmer geführt werden, der sich mit einer eigenen Produktidee selbständig gemacht hat. Die glaubwürdigsten Parteien sind die, in denen der Vorsitzende im Straßenwahlkampf überzeugt hat.
Ich fülle keine Formulare mehr aus, nur um einem Funktionär oder Manager eine Scheinlegitimation zu erteilen.
Das gilt nicht nur für die CDU. Das gilt für alle Parteien, die ihre Marketingprospekte an den tagesaktuellen Umfragebörsenkursen ausrichten. Dieser sogenannte "Pragmatismus" von Parteivorsitzenden soll ja nur den verdorrenen politischen Kern kaschieren. Bürokratisch perfektionierte Parteiapparate haben karriereorientierte aber unpolitische Funktionäre an ihre Spitzen gehievt und wissen angesichts schwindender "Markanteile" nicht mehr wohin. Ihre einzige Qualifikation ist, dass sie sich in den selbst geschaffenen Bürokratien auskennen. Wenn die politische Entkernung der Traditionsparteien Raum für neue Parteien schafft, dann müssen diese Parteien verstehen, dass sie dies selbst verursacht haben und dürfen nicht so tun, als sei dies ein unbeeinflussbarer Trend (wie Horst Seehofer dies in dieser Woche tat). Die CDU ist nämlich derzeit auf bestem Wege, es der SPD nachzumachen, die Stammwählerschaft zu räumen, um Raum für eine neue Partei zu schaffen.
Die Orientierung an der "Mitte" ist heute kein Bekenntnis mehr zu einer Gesellschaftsschicht. Sondern ein Indiz dafür, dass man keine Ziele und keine Ideen mehr hat. So wie woanders auch. An der Börse z.B. orientiert man sich an Indizes. Und bei Nebel auf der Straße orientiert man sich am Mittelstreifen.
Und in vielen Unternehmen ist es ebenfalls so. Wo Manager statt Unternehmer regieren, orientiert man sich am Mittelwert dessen, was die anderen Unternehmen machen. Und wenn das alle so machen, entstehen Einheitsbreis. Nicht besser als im Sozialismus: Einheitliche Bürokratien, Produkte, Mentalitäten.
In solchen Organisationen sind Funktionäre und Manager die ganze Woche mit der Schaffung und dem Ausfüllen von Formularen beschäftigt. Auf inhaltliche Fragen darf man sie nicht ansprechen. In die Zukunft schauen und Ideen entwickeln kann man mit ihnen nicht. Ängstlich schotten sie sich ab und verkünden am Ende der Woche neue Formulare.
Besonders perfide ist es, das Melken einer Gesellschaftsschicht als besondere "Fürsorge" zu bezeichnen. Es ist die Mitte, von der alle reden und es ist die Mitte, bei der alles abgeladen wird: Die Haftung für die Marodeure in Bankenvorständen, die Rettung des Klimas, die Finanzierung des "Aufbau Ost" usw.
Eine Partei ist wie ein Anwalt, der sich für die eigenen Interessen einsetzt. Wenn viele ähnliche Interessen haben, die sich an ähnlichen Werten ausrichtet, gründen sie eine Partei. Ich erwarte von meiner Partei die Vertretung meiner Interessen und die Orientierung an meinen Werten. Andernfalls bin ich in der falschen Partei.
Ich brauche keine Partei, die nicht mehr weiß, wofür sie steht und eine neue Aufgabe sucht. Wenn Funktionäre ihre Mitglieder nach dem Sinn und Zweck der Partei befragen müssen, dann kann man das als "basisnah" bezeichnen - oder als "verzweifelt". Solange die amtierenden Funktionäre am Ende entscheiden, wird nichts gewonnen. Die Basis muss ihre Vorsitzenden stürzen, abwählen, nach Hause schicken. Das gilt sowohl für den Bundes- als auch den Landesverband.
Ähnlich in Unternehmen, in denen bei schlechten Wetteraussichten die Mitarbeiter zu Kreativtiätswettbewerben aufgerufen werden und das Management stellt lediglich die Formulare für die "Bewertung" der Ideen bei.
Kurzum: Die besten Unternehmen sind die, die von einem Gründer und Unternehmer geführt werden, der sich mit einer eigenen Produktidee selbständig gemacht hat. Die glaubwürdigsten Parteien sind die, in denen der Vorsitzende im Straßenwahlkampf überzeugt hat.
Ich fülle keine Formulare mehr aus, nur um einem Funktionär oder Manager eine Scheinlegitimation zu erteilen.
Mittwoch, 13. Januar 2010
Google Patentanmeldungen 2009
Ralf Kaumanns hat die Google Patentanmeldungen 2009 unter die Lupe genommen. Lesenswert! -> Link
Montag, 11. Januar 2010
Sonntag, 10. Januar 2010
Samstag, 9. Januar 2010
The Road ahead - Der Markt für Navigationssysteme differenziert sich
Am 10.01.2010 auch erschienen als Gastbeitrag im Blog "Google-Ökonomie" (Link)
2010 wird einen neuen Innovationsschub für Navigationssysteme und die dahinter stehenden Geschäftsmodelle bringen. Navigation wird für Jedermann verfügbar. Alle drei Anbietergruppen arbeiten mit Hochdruck an ihrer Wettbewerbspositionierung und -differenzierung: Steht derzeit auch Google mit seinem soeben vorgestellen Smartphone im Mittelpunkt der Aufmerksamkeit, wird in wenigen Wochen die Volkskarte Open Street Map nachziehen. Skobbler wird der erste kommerzielle Anbieter einer Navigationssoftware, die die kostenlose Karte benutzt. Das könnte für Preisdruck bei den anderen Anbietern sorgen. Die Hersteller fest eingebauter Navis integrieren ihre Systeme derweil mit neuen Fahrzeugfunktionen. Alle drei Gruppen haben ihre Zielgruppen.
Viele Informationen haben einen Geobezug
Auf der Gründungssitzung des GEOkomm e.V. (Link) vor einigen Jahren hörte ich zum ersten mal, dass mindestens 2/3 aller konkreten Informationsbedarfe, die mit IT gedeckt werden können, in irgendeiner Form mit Geodaten zu tun haben.
Allein das macht plausibel, warum sich Google im Navigationsgeschäft tummelt. Google weiß alles und kann unterschiedlichste Informationen miteinander kombinieren. Eine gute Voraussetzung, um die Navigationsbranche in neue Richtungen zu treiben? Ich halte sie für notwendig, aber nicht hinreichend.
Routing - die Basisfunktione
Die am Markt erhältlichen Navigationssysteme sind längst über die Basisfunktionalität hinaus, jemanden einfach von A nach B navigieren zu können. Die klassischen Anbieter von Navigationssystemen haben über die Jahre verschiedene Routingphilosophien entwickelt und optimiert. Man beobachte sich einmal selbst bei der Planung einer Route mit Kartenmaterial aus Papier. Der eine plant vom Ziel zum Start. Der andere vom Start zum nächsten Verkehrsknoten, um dann weiter zu sehen. Vielleicht, weil die Verkehrslage zum Zeitpunkt der Planung noch unsicher ist. Oder weil man noch nicht weiß, welche Zwischenstops unterwegs nötig werden.
Es gibt Navigationssysteme, die geben einem wenige Sekunden nach der Zieleingabe schon den ersten Manöverhinweis. ("Ich habe noch nicht bis zur Hausnummer in der Zielstraße gerechnet, aber soviel ist sicher: Wir müssen auf die Autobahn."). Andere rechnen mehrere Variationsmöglichkeiten durch, bewerten diese nach vorgegebenen Kriterien und fangen erst dann an zu routen.
Zieleingabe
Aber genau genommen, ist schon der Dialog für die Zieleingabe ein kritischer Erfolgsfaktor. Wir gewöhnten und mühsam an die Zieleingabe nach der Fuchsbergerschen "Auf los geht's los" - Methode: Man sieht Striche als Platzhalter und muss den nächsten in Frage kommenden Buchstaben eingehen (Next Valid Character). Wer sich der Schreibweise seines Ziels nicht sicher war, kam hier manches mal ins Schwitzen. Hieß es nun "xy-Hofmann-Str." oder "xy-Hoffman-Str." oder "xy-Hofmann-Str." usw.? Das System sollte auf Wunsch der Fahrzeughersteller so vorgehen, um eine Verwechslung bei der Zieleingabe 100%ig auszuschließen. Im Zeitalter von Google wünschst man sich aber doch eine robuste Zieleingabe, bei der die genaue Schreibweise egal ist, und die Reihenfolge von Straße und Stadt ebenfalls. Wenn sich das System nicht sicher ist, fragt es eben "Meinten Sie...?"
1:0 für Google.
Spracheingabe
Noch bequemer ist natürlich die Zieleingabe per Sprache. Das bieten sowohl Google als auch die klassischen Navigationssystemhersteller an. 2:1
Kartenanzeige
Bevor Google kam, waren wir an Kartendarstellungen gewöhnt, die immer in Fahrtrichtung ausgerichtet sind und eine dreidimensionale Vogelperspektive ("Bird view") anzeigen. Damit kommt man meistens zurecht. Nur manchmal, und zwar besonders bei komplexen Verkehrsknoten und am Zielort, blieb man manchmal unschlüssig, was denn nun genau gemeint war: Autobahnabfahrt in der Tangente oder dahinter? Welches der in Frage kommenden Gebäude, von denen ich die Hausnummer nicht lesen kann, ist denn nun mein Ziel?
Foto: Google
Die von Google gezeigten Street Views sind hier natürlich unschlagbar eindeutig. Aber die Fahrzeughersteller und ihre Zulieferer haben auch hierauf Antworten: Z.B. kann man den Richtungspfeil einfach in die Windschutzscheibe projizieren, dann routet man tatsächlich auf der Realität.
3:2
Zielaufspaltung Fahrzeug/User: Parkplatzsuche und Gebäudeeingang
Am Ziel angekommen ist die nächste Frage immer: Wo kann ich parken? Wo kann ich gratis parken? Und wo kann ich mit einem freien Parkplatz rechnen? Diese Informationen müssen zum einen auf der Karte hinterlegt sein. Und mit Hilfe einer Onlineverbindung könnte man dynamische Daten einfach abfragen. Das können alle Hersteller realisieren, wenn sie wollen. Bei Google unterstützen aber genau solche Informationsbedürfnisse das Werbegeschäftsmodell von Google. Kann man sich bei Google denn sicher sein, immer die preiswerteste Option angeboten zu bekommen? Ich wäre bei Google nicht so sicher. Bei den anderen Anbietern schon eher. Und zwar nicht nur bei der Frage nach Parkplätzen.
Ausgleich zum 3:3.
Ist das Auto dann abgestellt, teilt sich die Welt in zwei Hälften: Das festeingebaute Navi kann ich derzeit nicht herausnehmen. Aber vielleicht kann ich mein Ziel ja nur zu Fuß erreichen? Z.B. wenn es in einer Fußgängerzone liegt? Ich habe das in Regensburg spät abends mit einem Mietwagen erlebt. Mit Mühe und Not konnte ich am Dom irgendwo parken. Aber um das Hotel zu finden, musste ich telefonieren.
Womit wir beim Smartphone wären: Das nehme ich einfach mit aus dem Auto und lasse mich wenn nötig bis zur Tür "mikronavigieren".
Zwischenergebnis 4:3 für die Smartphones (inkl. Google).
Ein knapper Sieg für die Smartphones im allgemeinen und Google im besonderen?
Bordnetzintegrierte Navigation
Nein, denn das Spiel ist noch nicht zu Ende. Wer mit dem Auto navigiert, und wer erst einmal verstanden hat, wieviele Fragen ein intelligentes Navigationssystem beantworten kann, dessen Anforderungen wachsen.
So wie viele Informationsbedarfe irgendwie mit Geoinformationen verknüpft sind, so sind auch viele Fragen an die Navigation mit dem Bordnetz des Autos verknüpft. Ein relativ triviales Beispiel hierfür ist die automatische Suche nach der nächsten Tankstelle, wenn der Kraftstoff zu Neige geht. Weitere Beispiele sind die Verknüpfung von Hybrid- bzw. Batteriemanager und der Topologie der vorausliegenden Strecke? Wann z.B. kommen Gefällstrecken mit Kreuzungen in der Senke, die sich für eine Nutzbremsung eignen? Oder: Ist das Fahrzeug in einem Zustand, der sich für die geplante Route z.B. über winterliche Gebirgszüge eignet?
Solche Optimierungsaufgaben kann nur ein bordintegriertes Navigationssystem unterstützen. Der Navgationskunde muss sich hier entscheiden, welche Prioritäten er setzt. Vermutlich wird, wer sich ein festeingebautes Navi leistet, ebenfalls ein Smartphone mit einer Navigationsfunktion besitzen. Die Navigationsfunktion wird er dann aber nur außerhalb seines Fahrzeugs benutzen.
Dazu kommt: Ein fest eingebautes Navi haben die meisten Fahrer, die ich kenne, permanent eingeschaltet. Auch wenn sie in Gegenden fahren, in denen sie sich auskennen. Gründe hierfür sind, neben einer gewissen Bequemlichkeit und einem Gewöhnungsfaktor, die schnell abrufbaren Informationen, wenn spontan Fragen aufkommen. Z.B. wenn eine Umleitung eingerichtet wurde, oder man auf der Karte eine bis dato unbekannte freie Tankstelle entdeckt. Etc. Der Besitzer eines Smartphone oder mobilen Navis handelt so in der Regel nicht, ist also auch kein Navidauerkunde. Das ist aus meiner Sicht ein Limitierungsfaktor für ein werbebasiertes Navigeschäftsmodell wie es Google nachgesagt wird.
Was plant Google?
Wenn man wissen will, welche Produkte oder Produktmerkmale ein Technologieunternehmen plant, schaut man am besten in Patentdatenbanken. Unter dem Stichwort Navigation findet man von Google u.a.:
- Gebäudenavigation
- eine personalisierte, adaptive Navigation, die die persönlichen Ziele-, Routen- und Fahrstilpräferenzen eines Fahrers aufzeichnet und daraus Routenkriterien für die Navigation ableitet.
- Nutzung von Navigationshistorien für die Verbesserung personalisierter Werbeanzeigen.
- Nahtlose Navigation in Panoramabildern.
Digitale Karten
Und schließlich spielt die benutzte Karte eine große Rolle. Google wird bis 2012 Kartenmaterial von TeleAtlas benutzen. Die vorhandenen Streetviews sind nur in Korrelation navigierbaren Karten nutzbar, sie allein ermöglichen keine Navigation. Welche Karten wird Google nach 2012 nutzen? Vor zwei Jahren hatte Google mit "Map maker" eine Art eigenes "Open street map" (Link) Projekt aufgesetzt. So richtig entwickelt hat es sich seitdem nicht. Der Grund dafür ist, dass die Google Karte zwar "open" für die kostenlose Mitarbeit von Mappern ist, aber diesen im Gegenzug weder Rechte am Werk noch eine eine Bezahlung einräumt. Warum sollten User also an einer solchen Karte mitarbeiten?
Ich glaube nicht, dass Google sich das so einfach machen kann. Aufbau, Pflege und Attributeanreicherung einer Karte sind Arbeit. Entweder bezahl man einen kommerziellen Anbieter wie Navteq oder TeleAtlas für diesen Dienst oder man räumt ihm Mitnutzungsrechte an dem Gewerk ein.
Open Street Map vs. Google vs. Kartenhersteller
Unter diesem Aspekt ist das Gespann Open Street Map (OSM) / Skobbler spannender. Die unschlagbar preisgünstige Skobbler iPhone Navigation wird alles können, was die Open Street Map mit Straßen- und Landmarkattributen unterstützt. Und die OSM gibt es als Creative Commons Lizenz, d.h. man nutzt sie gratis und nennt sie als Quelle.
Somit spannt sich in Zukunft ein sehr interessantes Dreieck aus Wettbewerbspositionen auf:
- Die sehr kostengünstige Smartphone Navigation auf Basis Open Street Map, pilotiert von Skobbler.
- Smartphones mit den Sonderfällen Nokia/Navteq und Google, die 2012 vor der Weichenstellung bzgl. der Karte steht.
- Bordnetzintegrierte Navigationssysteme, die Fahrzeugfunktionen unterstützen.
2010 wird einen neuen Innovationsschub für Navigationssysteme und die dahinter stehenden Geschäftsmodelle bringen. Navigation wird für Jedermann verfügbar. Alle drei Anbietergruppen arbeiten mit Hochdruck an ihrer Wettbewerbspositionierung und -differenzierung: Steht derzeit auch Google mit seinem soeben vorgestellen Smartphone im Mittelpunkt der Aufmerksamkeit, wird in wenigen Wochen die Volkskarte Open Street Map nachziehen. Skobbler wird der erste kommerzielle Anbieter einer Navigationssoftware, die die kostenlose Karte benutzt. Das könnte für Preisdruck bei den anderen Anbietern sorgen. Die Hersteller fest eingebauter Navis integrieren ihre Systeme derweil mit neuen Fahrzeugfunktionen. Alle drei Gruppen haben ihre Zielgruppen.
Viele Informationen haben einen Geobezug
Auf der Gründungssitzung des GEOkomm e.V. (Link) vor einigen Jahren hörte ich zum ersten mal, dass mindestens 2/3 aller konkreten Informationsbedarfe, die mit IT gedeckt werden können, in irgendeiner Form mit Geodaten zu tun haben.
Allein das macht plausibel, warum sich Google im Navigationsgeschäft tummelt. Google weiß alles und kann unterschiedlichste Informationen miteinander kombinieren. Eine gute Voraussetzung, um die Navigationsbranche in neue Richtungen zu treiben? Ich halte sie für notwendig, aber nicht hinreichend.
Routing - die Basisfunktione
Die am Markt erhältlichen Navigationssysteme sind längst über die Basisfunktionalität hinaus, jemanden einfach von A nach B navigieren zu können. Die klassischen Anbieter von Navigationssystemen haben über die Jahre verschiedene Routingphilosophien entwickelt und optimiert. Man beobachte sich einmal selbst bei der Planung einer Route mit Kartenmaterial aus Papier. Der eine plant vom Ziel zum Start. Der andere vom Start zum nächsten Verkehrsknoten, um dann weiter zu sehen. Vielleicht, weil die Verkehrslage zum Zeitpunkt der Planung noch unsicher ist. Oder weil man noch nicht weiß, welche Zwischenstops unterwegs nötig werden.
Es gibt Navigationssysteme, die geben einem wenige Sekunden nach der Zieleingabe schon den ersten Manöverhinweis. ("Ich habe noch nicht bis zur Hausnummer in der Zielstraße gerechnet, aber soviel ist sicher: Wir müssen auf die Autobahn."). Andere rechnen mehrere Variationsmöglichkeiten durch, bewerten diese nach vorgegebenen Kriterien und fangen erst dann an zu routen.
Zieleingabe
Aber genau genommen, ist schon der Dialog für die Zieleingabe ein kritischer Erfolgsfaktor. Wir gewöhnten und mühsam an die Zieleingabe nach der Fuchsbergerschen "Auf los geht's los" - Methode: Man sieht Striche als Platzhalter und muss den nächsten in Frage kommenden Buchstaben eingehen (Next Valid Character). Wer sich der Schreibweise seines Ziels nicht sicher war, kam hier manches mal ins Schwitzen. Hieß es nun "xy-Hofmann-Str." oder "xy-Hoffman-Str." oder "xy-Hofmann-Str." usw.? Das System sollte auf Wunsch der Fahrzeughersteller so vorgehen, um eine Verwechslung bei der Zieleingabe 100%ig auszuschließen. Im Zeitalter von Google wünschst man sich aber doch eine robuste Zieleingabe, bei der die genaue Schreibweise egal ist, und die Reihenfolge von Straße und Stadt ebenfalls. Wenn sich das System nicht sicher ist, fragt es eben "Meinten Sie...?"
1:0 für Google.
Spracheingabe
Noch bequemer ist natürlich die Zieleingabe per Sprache. Das bieten sowohl Google als auch die klassischen Navigationssystemhersteller an. 2:1
Kartenanzeige
Bevor Google kam, waren wir an Kartendarstellungen gewöhnt, die immer in Fahrtrichtung ausgerichtet sind und eine dreidimensionale Vogelperspektive ("Bird view") anzeigen. Damit kommt man meistens zurecht. Nur manchmal, und zwar besonders bei komplexen Verkehrsknoten und am Zielort, blieb man manchmal unschlüssig, was denn nun genau gemeint war: Autobahnabfahrt in der Tangente oder dahinter? Welches der in Frage kommenden Gebäude, von denen ich die Hausnummer nicht lesen kann, ist denn nun mein Ziel?
Foto: Google
Die von Google gezeigten Street Views sind hier natürlich unschlagbar eindeutig. Aber die Fahrzeughersteller und ihre Zulieferer haben auch hierauf Antworten: Z.B. kann man den Richtungspfeil einfach in die Windschutzscheibe projizieren, dann routet man tatsächlich auf der Realität.
3:2
Zielaufspaltung Fahrzeug/User: Parkplatzsuche und Gebäudeeingang
Am Ziel angekommen ist die nächste Frage immer: Wo kann ich parken? Wo kann ich gratis parken? Und wo kann ich mit einem freien Parkplatz rechnen? Diese Informationen müssen zum einen auf der Karte hinterlegt sein. Und mit Hilfe einer Onlineverbindung könnte man dynamische Daten einfach abfragen. Das können alle Hersteller realisieren, wenn sie wollen. Bei Google unterstützen aber genau solche Informationsbedürfnisse das Werbegeschäftsmodell von Google. Kann man sich bei Google denn sicher sein, immer die preiswerteste Option angeboten zu bekommen? Ich wäre bei Google nicht so sicher. Bei den anderen Anbietern schon eher. Und zwar nicht nur bei der Frage nach Parkplätzen.
Ausgleich zum 3:3.
Ist das Auto dann abgestellt, teilt sich die Welt in zwei Hälften: Das festeingebaute Navi kann ich derzeit nicht herausnehmen. Aber vielleicht kann ich mein Ziel ja nur zu Fuß erreichen? Z.B. wenn es in einer Fußgängerzone liegt? Ich habe das in Regensburg spät abends mit einem Mietwagen erlebt. Mit Mühe und Not konnte ich am Dom irgendwo parken. Aber um das Hotel zu finden, musste ich telefonieren.
Womit wir beim Smartphone wären: Das nehme ich einfach mit aus dem Auto und lasse mich wenn nötig bis zur Tür "mikronavigieren".
Zwischenergebnis 4:3 für die Smartphones (inkl. Google).
Ein knapper Sieg für die Smartphones im allgemeinen und Google im besonderen?
Bordnetzintegrierte Navigation
Nein, denn das Spiel ist noch nicht zu Ende. Wer mit dem Auto navigiert, und wer erst einmal verstanden hat, wieviele Fragen ein intelligentes Navigationssystem beantworten kann, dessen Anforderungen wachsen.
So wie viele Informationsbedarfe irgendwie mit Geoinformationen verknüpft sind, so sind auch viele Fragen an die Navigation mit dem Bordnetz des Autos verknüpft. Ein relativ triviales Beispiel hierfür ist die automatische Suche nach der nächsten Tankstelle, wenn der Kraftstoff zu Neige geht. Weitere Beispiele sind die Verknüpfung von Hybrid- bzw. Batteriemanager und der Topologie der vorausliegenden Strecke? Wann z.B. kommen Gefällstrecken mit Kreuzungen in der Senke, die sich für eine Nutzbremsung eignen? Oder: Ist das Fahrzeug in einem Zustand, der sich für die geplante Route z.B. über winterliche Gebirgszüge eignet?
Solche Optimierungsaufgaben kann nur ein bordintegriertes Navigationssystem unterstützen. Der Navgationskunde muss sich hier entscheiden, welche Prioritäten er setzt. Vermutlich wird, wer sich ein festeingebautes Navi leistet, ebenfalls ein Smartphone mit einer Navigationsfunktion besitzen. Die Navigationsfunktion wird er dann aber nur außerhalb seines Fahrzeugs benutzen.
Dazu kommt: Ein fest eingebautes Navi haben die meisten Fahrer, die ich kenne, permanent eingeschaltet. Auch wenn sie in Gegenden fahren, in denen sie sich auskennen. Gründe hierfür sind, neben einer gewissen Bequemlichkeit und einem Gewöhnungsfaktor, die schnell abrufbaren Informationen, wenn spontan Fragen aufkommen. Z.B. wenn eine Umleitung eingerichtet wurde, oder man auf der Karte eine bis dato unbekannte freie Tankstelle entdeckt. Etc. Der Besitzer eines Smartphone oder mobilen Navis handelt so in der Regel nicht, ist also auch kein Navidauerkunde. Das ist aus meiner Sicht ein Limitierungsfaktor für ein werbebasiertes Navigeschäftsmodell wie es Google nachgesagt wird.
Was plant Google?
Wenn man wissen will, welche Produkte oder Produktmerkmale ein Technologieunternehmen plant, schaut man am besten in Patentdatenbanken. Unter dem Stichwort Navigation findet man von Google u.a.:
- Gebäudenavigation
- eine personalisierte, adaptive Navigation, die die persönlichen Ziele-, Routen- und Fahrstilpräferenzen eines Fahrers aufzeichnet und daraus Routenkriterien für die Navigation ableitet.
- Nutzung von Navigationshistorien für die Verbesserung personalisierter Werbeanzeigen.
- Nahtlose Navigation in Panoramabildern.
Digitale Karten
Und schließlich spielt die benutzte Karte eine große Rolle. Google wird bis 2012 Kartenmaterial von TeleAtlas benutzen. Die vorhandenen Streetviews sind nur in Korrelation navigierbaren Karten nutzbar, sie allein ermöglichen keine Navigation. Welche Karten wird Google nach 2012 nutzen? Vor zwei Jahren hatte Google mit "Map maker" eine Art eigenes "Open street map" (Link) Projekt aufgesetzt. So richtig entwickelt hat es sich seitdem nicht. Der Grund dafür ist, dass die Google Karte zwar "open" für die kostenlose Mitarbeit von Mappern ist, aber diesen im Gegenzug weder Rechte am Werk noch eine eine Bezahlung einräumt. Warum sollten User also an einer solchen Karte mitarbeiten?
Ich glaube nicht, dass Google sich das so einfach machen kann. Aufbau, Pflege und Attributeanreicherung einer Karte sind Arbeit. Entweder bezahl man einen kommerziellen Anbieter wie Navteq oder TeleAtlas für diesen Dienst oder man räumt ihm Mitnutzungsrechte an dem Gewerk ein.
Open Street Map vs. Google vs. Kartenhersteller
Unter diesem Aspekt ist das Gespann Open Street Map (OSM) / Skobbler spannender. Die unschlagbar preisgünstige Skobbler iPhone Navigation wird alles können, was die Open Street Map mit Straßen- und Landmarkattributen unterstützt. Und die OSM gibt es als Creative Commons Lizenz, d.h. man nutzt sie gratis und nennt sie als Quelle.
Somit spannt sich in Zukunft ein sehr interessantes Dreieck aus Wettbewerbspositionen auf:
- Die sehr kostengünstige Smartphone Navigation auf Basis Open Street Map, pilotiert von Skobbler.
- Smartphones mit den Sonderfällen Nokia/Navteq und Google, die 2012 vor der Weichenstellung bzgl. der Karte steht.
- Bordnetzintegrierte Navigationssysteme, die Fahrzeugfunktionen unterstützen.
Abonnieren
Posts (Atom)