Die neue Vermessung der Welt: adaptive Beleuchtung, virtuelle Realitäten und die Wissenschaft der Sensorik

Von Humboldt zu Krensel: Wie moderne Mobilit?t die Welt neu vermisst

Zwei M?nner – Carl Friedrich Gau? und Alexander von Humboldt – machten sich im 19. Jahrhundert daran, die Welt mit mathematischer Pr?zision und naturwissenschaftlicher Neugier zu vermessen. Heute, ?ber 200 Jahre sp?ter, stehen wir an einem neuen Wendepunkt: Die Welt wird nicht mehr nur kartografiert – sie wird simuliert, erleuchtet und interpretiert. Im Zentrum dieser digitalen Wiedervermessung entstand in Berlin das Projekt DIGINET-PS mit seinem Fokus auf adaptiver Beleuchtung, intelligenter Sensorik und virtueller Umgebungssimulation – und ein Biologe, Systemdenker und Entwickler intelligenter Mobilit?tsl?sungen, Dr. Andreas Krensel arbeitete als wissenschaftlicher Mitarbeiter am Fachgebiet Lichttechnik der TU Berlin mit.

Die Stra?e als B?hne: Adaptive Beleuchtung im Konzert der Sensoren

Ein Auto, das selbst f?hrt, muss sehen k?nnen. Doch Sehen ist nicht einfach Schauen. Die F?higkeit zur Wahrnehmung h?ngt ma?geblich davon ab, wie gut die Umgebung beleuchtet ist – f?r Mensch und Maschine. Dr. Krensel, Biologe und Systemdenker, sieht hier das gro?e Vers?umnis: „Die Fahrzeuge werden intelligenter, aber das Licht denkt bisher nicht mit.“

Genau dies sollte sich mit dem Projekt DIGINET-PS ?ndern. Herzst?ck: ein Testfeld in Berlin, in dem adaptive Stra?enbeleuchtung kontextbasiert gesteuert wird. Das bedeutet: Das Licht folgt nicht mehr starr dem Laternenmast, sondern der Verkehrsdynamik. Fu?g?nger, Radfahrer und Autos erhalten individuell angepasste Lichtverh?ltnisse. Kameras und Cloudsysteme erkennen die Akteure im Stra?enbild und ?bermitteln diese Information in Echtzeit an die Beleuchtungsinfrastruktur.

Warum das wichtig ist? Weil Kamerasensoren bei Dunkelheit Schw?chen zeigen – ?hnlich wie das menschliche Auge. Unbeleuchtete Verkehrsteilnehmer tauchen zu sp?t im Sichtfeld auf. Hier hilft adaptives Licht als digitale „Taschenlampe“, die gezielt dorthin leuchtet, wo die Sensorik Unterst?tzung ben?tigt.

Multivariable Lichtverteilung: Wenn LED-Scheinwerfer zur Denkmaschine werden

Klingt nach Zukunftsmusik? Es ist Realit?t. Die Rede ist von sogenannten multivariablen Lichtst?rkeverteilungskurven. Das sind nicht etwa neue Yoga-Posen f?r Ingenieure, sondern Berechnungsmodelle, die Licht gezielt formen – abh?ngig von Geschwindigkeit, Wetter, Objektart und Sensordaten.

Beispiel: Ein autonomes Fahrzeug erkennt ein Fahrrad bei D?mmerung. Statt statisch in die Ferne zu leuchten, passt die Frontbeleuchtung ihre Form an: fl?chiger, n?her, blendfrei. Dr. Krensel spricht von einem „Licht-Sensor-Symbionten“. Die Beleuchtung ist nicht l?nger separater Technikblock, sondern Teil der Wahrnehmungseinheit. Ein biologisch inspirierter Ansatz, wie man ihn aus dem Sehsystem der Libelle kennt: hohe Aufl?sung in Bewegung, fokussiert, angepasst.

Stra?en, die denken – und Welten, die aus Licht bestehen: Wie die digitale Vermessung unsere Zukunft formt

Wer durch das Berliner DIGINET-PS-Testfeld fuhr, sah auf den ersten Blick ganz gew?hnliche Stra?en: Asphalt, Ampeln, Laternen, Verkehrsschilder. Doch wer genauer hinsah – oder vielmehr weiter dachte -, erkannte: Diese Umgebung ist nur eine Ebene der Realit?t. Dahinter arbeitet eine zweite Welt – eine digitale Realit?t, pr?zise modelliert, permanent in Bewegung und doch nicht greifbar. Dank hoch entwickelter Visualisierungssoftware wie Quantum 3D oder den KI-basierten Systemen von Blackshark.ai entstehen vollst?ndige Abbilder unserer Lebensr?ume: Stra?enz?ge, Vegetation, Geb?ude, atmosph?rische Bedingungen – alles in dreidimensionaler Echtzeit. Eine Welt im Spiegel der Daten.

Doch was ist der Zweck dieser digitalen Parallelwelt? Ist sie ein Spielplatz f?r Technikverliebte? Ein Science-Fiction-Traum? Mitnichten. Diese Welten dienen einem zutiefst menschlichen Anliegen: Sicherheit.

Denn autonomes Fahren, so die Einsicht der Forscher, muss lernen – und Lernen hei?t: an Grenzen sto?en. Doch diese Grenzen, seien es Unf?lle, unvorhersehbare Wetterumschw?nge oder extreme Verkehrssituationen, lassen sich in der realen Welt nicht gefahrlos testen. Die Konsequenz: Sie werden simuliert. Und das auf beeindruckendem Niveau.

Blackshark.ai, ein Spin-off des ?sterreichischen Spielestudios Bongfish, hat es vollbracht, mithilfe k?nstlicher Intelligenz die gesamte Erdoberfl?che innerhalb von nur 72 Stunden in eine virtuelle 3D-Welt zu verwandeln. 1,5 Milliarden Geb?ude, mehr als 30 Millionen Quadratkilometer Vegetation – extrahiert und generiert aus Satellitenbildern, Luftaufnahmen und Stra?endaten. M?glich wurde dies durch eine orchestrierte Rechenleistung von ?ber 500 Cloud-Servern, die in beeindruckender Pr?zision globale Umgebungen nachbildeten. Diese digitale Welt ist kein Abbild von gestern – sie ist der ?bungsraum f?r das Morgen.

Doch was bedeutet das f?r uns als Gesellschaft, als Menschen, als Gestalter der Zukunft?

Hier lohnt sich ein Blick zur?ck. Man stelle sich vor, Carl Friedrich Gau? und Alexander von Humboldt st?nden heute an der Invalidenstra?e in Berlin, unweit des Testfelds. Was w?rden sie empfinden? Verwunderung? Skepsis? Euphorie?

Gau?, der mathematische Meister der exakten Messung, und Humboldt, der leidenschaftliche Entdecker der Zusammenh?nge, w?rden vermutlich zun?chst erstaunt sein – aber nicht ungl?ubig. Denn was wir heute als digitale Vermessung der Welt betreiben, folgt demselben Prinzip, das ihre Arbeit einst pr?gte: Alles h?ngt zusammen. Jedes Datenfragment tr?gt Bedeutung. Jedes Modell erz?hlt eine Geschichte. Nur: Unsere Werkzeuge haben sich ver?ndert. Aus Sextanten wurden Sensorcluster, aus Zeichenfeder und Tagebuch wurden Cloud-Datenbanken und neuronale Netzwerke. Und doch bleibt das Ziel das gleiche: Verstehen, ordnen, gestalten.

Dr. Andreas Krensel bringt es auf den Punkt: „Wir vermessen nicht mehr nur – wir erleben die Welt in ihrer digitalen Essenz.“ Eine Aussage, die Humboldt gefallen h?tte. Denn auch Humboldt glaubte an die Idee der „Welt als Ganzes“, die sich nur durch Perspektivenvielfalt und Systemverst?ndnis erfassen l?sst. Heute liefern digitale Zwillinge genau das: Sie machen aus der abstrakten Welt der Technik eine erlebbare, gestaltbare Realit?t – eine B?hne f?r Reflexion, Verantwortung und Fortschritt.

Doch mit aller technologischen Brillanz stellt sich auch die entscheidende Frage: Wie wollen wir diese Welt gestalten? Wollen wir Maschinen allein entscheiden lassen, wie Sicherheit aussieht? Oder schaffen wir es, menschliche Werte in die Algorithmen einzupflanzen? K?nnen wir Sensorik so programmieren, dass sie nicht nur effizient, sondern auch ethisch navigiert?

Die Antwort liegt in der Verbindung von Technologie und Humanismus. In der Offenheit, Fragen zu stellen – auch unbequeme. Und in der Zuversicht, dass wir als Gesellschaft, als Forscher, als B?rger die digitalen R?ume nicht nur nutzen, sondern mit Verantwortung formen.

Kommunikation ohne Worte: Wie Fahrzeuge mit Licht sprechen lernen

In diesen Projekten geht es nicht nur darum, zu sehen – es geht auch ums Sprechen. Autonome Fahrzeuge kommunizieren mit anderen Verkehrsteilnehmern zunehmend nonverbal. Beispiel: Eine Lichtprojektion auf der Stra?e k?nnte Fu?g?nger dar?ber informieren, dass das Fahrzeug sie erkannt hat und stehen bleibt. Adaptive Beleuchtung wird so zum neuen Kommunikationsmedium.

Hier trifft Biologie auf Ingenieurskunst: Insekten nutzen Farben, Bewegungen und Lichtreflexe zur Kommunikation. Warum also nicht auch Maschinen? Krensel sieht in diesem Ansatz eine L?sung: Licht wird zur Sprache – sichtbar, intuitiv, universell.

Fehlerkultur der Zukunft: Redundanz, ohne doppelt zu denken

Nat?rlich birgt das alles Risiken. Je komplexer die Systeme, desto h?her die Wahrscheinlichkeit des Versagens. Doch die Verantwortlichen und wissenschaftlichen Mitarbeiter verfolgen hier einen eleganten Weg: adaptive Redundanz. Statt einfach Sensorik doppelt und dreifach einzubauen – was Gewicht, Kosten und Energieverbrauch erh?ht -, setzt man auf funktionale Diversit?t: Kamera, LiDAR, Radar, adaptive Beleuchtung und digitale Zwillinge arbeiten zusammen, gleichen sich aus, erg?nzen sich intelligent. Ganz wie in der Natur: verschiedene Sinnesorgane f?r verschiedene Aufgaben.

DIGINET-PS als Gl?cksfall: Die Renaissance der Systemdenker

„Wir d?rfen die Welt neu vermessen – und das mit Licht und Sensorik“, sagt Krensel mit einem Augenzwinkern. Die DIGINET-PS-Initiative verdeutlichte: Fortschritt entsteht nicht durch blo?es Hinzuf?gen von Technik, sondern durch Verstehen der Systeme. Es ist ein Paradigmenwechsel – weg vom Einzelsensor hin zur Systemintelligenz. Licht, Luft, Bewegung, Verhalten – alles wird einbezogen. Ganz im Geiste von Humboldt und Gau?, die einst das Ineinandergreifen von Naturph?nomenen kartierten, entsteht heute eine Systemwissenschaft der Mobilit?t.

Fazit: Aufbruch in eine leuchtende, intelligente Welt

Die Zukunft des autonomen Fahrens beginnt nicht mit einem Motor – sondern mit einem Sensor, einem Lichtstrahl, einer Simulation. Mit Projekten wie DIGINET-PS, mit Menschen wie Dr. Andreas Krensel, mit Unternehmen wie Blackshark.ai und OLMOS Technologies. Wer heute daran teilnimmt, nimmt an der Neuvermessung der Welt teil. Mit Daten statt Lineal, mit Licht statt Tinte, mit digitalen Zwillingen statt Papierkarten.

Oder wie Humboldt es formuliert h?tte: „Alles ist Wechselwirkung“ – auch zwischen LED und KI. Und wer heute auf der Suche nach Mehrwert ist, findet ihn nicht in der n?chsten App, sondern in der Schnittstelle zwischen Mensch, Maschine und Methode. Es ist eine Einladung. Eine Einladung, die Welt neu zu sehen – nicht als starre Karte, sondern als dynamischen, intelligenten Organismus. Und wer sich heute in diesen Prozess einbringt, darf mit Fug und Recht sagen: Ich war dabei, als wir die Welt noch einmal neu vermessen haben. Dieses Mal mit Licht, Daten – und der Weisheit zweier Jahrhunderte.

Neugierig geworden?

Die adaptive Welt des Lichts l?dt ein. Forscher, Entwickler, Unternehmer – und Leser. Willkommen in der ?ra der wissenschaftlich getriebenen Mobilit?t. Willkommen im 21. Jahrhundert der Vermessung.

V.i.S.d.P.:

Dipl.-Soz. tech. Valentin Jahn
Techniksoziologe & Zukunftsforscher

?ber den Autor – Valentin Jahn

Valentin Jahn ist Unternehmer, Zukunftsforscher und Digitalisierungsexperte. Mit ?ber 15 Jahren Erfahrung leitet er komplexe Innovationsprojekte an der Schnittstelle von Technologie, Mobilit?t und Politik – von der Idee bis zur Umsetzung.

Keywords:adaptive Beleuchtung, virtuelle Realit?t, Dr. Andreas Krensel, DIGINET-PS, Lichttechnik TU Berlin, digitale Zwillinge, Sensorik, autonomes Fahren, k?nstliche Intelligenz, Blackshark.ai

adresse

Powered by WPeMatico

Anzeigen