Wissenschaft: Unfassbar!

Autor*innen
Jörg Burger
Person steht mit verschränkten Armen, ihr Kopf ist ersetzt durch verworrenes Gekritzel mit bunten Punkten. Im Hintergrund diverse physikalische, mathematische und chemische Formeln und Zeichnungen.

Wir haben zwölf renommierte Wissenschaftler gefragt: Was ist die große ungelöste Frage Ihres Fachgebiets, auf die Sie gern eine Antwort hätten? Von Jörg Burger

ZEIT Magazin Logo

e‑fellows.net präsentiert: Das Beste aus dem ZEIT Magazin

Das ZEIT Magazin ist die emotionale, lebendige und persönliche Seite der ZEIT. Im handlichen Printformat bietet es jeden Donnerstag aufs Neue Orientierung und Unterhaltung – und jeden Tag online.

Wie können Kinder so schnell Sprachen lernen?

Die Leistung, die Kleinkinder erbringen, wenn sie scheinbar mühelos eine neue Sprache lernen, versteht man noch am ehesten, wenn man sich in Erinnerung ruft, wie das ist, als Erwachsener eine fremde Sprache zu hören – etwa als Europäer das Chinesische. Man erkennt noch nicht einmal, wo ein Wort anfängt oder aufhört, geschweige denn ein Satz. Wie schaffen es dann Kinder, in kurzer Zeit jede Sprache aufzusaugen? Und warum geht diese wundervolle Fähigkeit ab dem sechsten Lebensjahr langsam verloren?

Wie das möglich ist und was da im Gehirn passiert, darüber wissen wir noch fast nichts. Klar ist, dass der Mensch geboren ist, um Sprache zu lernen: Schon Babys filtern Sprache aus anderen akustischen Signalen heraus – sie wissen, wann gesprochen wird. Mit sechs bis acht Monaten erkennen sie bestimmte akustische Muster. Später probieren sie diese unablässig aus, sie plappern also nicht nur nach, sondern versuchen selbst, Laute zusammenzusetzen.

Angela D. Friederici

Direktorin der Abteilung Neuropsychologie am Max-Planck-Institut für Kognitions- und Neurowissenschaften in Leipzig

Wir kennen die Areale im Gehirn, die bei der Verarbeitung von Sprache aktiv werden – zwei Regionen in der linken Hirnhälfte, die mit Nervenfasern verbunden sind. Wenn Kinder lernen, Sätze zu verarbeiten, werden die Faserverbindungen zwischen diesen Regionen immer dicker, sodass wir an der Stärke einer dieser Verbindungen sogar die Sprachentwicklung eines Kindes im Alter zwischen drei und zehn Jahren sehr gut ablesen können.

Wenn Erwachsene eine zweite Sprache lernen, müssen zusätzlich andere Hirnregionen aktiviert werden, etwa die Regionen für Aufmerksamkeit und allgemeines Gedächtnis. Denn das Gehirn kommt zunächst hochvernetzt auf die Welt. Lernen heißt auch, einzelne Zellen und Faserverbindungen, die bereits bei der Geburt da sind, verkümmern zu lassen, weil man sie nicht benutzt. Man kann sich das so vorstellen: Beim Erwachsenen ist das Straßennetz bereits ausgedünnt, und man muss Umwege nehmen, daher geht alles langsamer.

Eine Antwort auf die Frage nach dem Geheimnis des kindlichen Spracherwerbs werden wir wohl erst finden, wenn wir wissen, wie das Gehirn Sprache als Information überhaupt verschlüsselt und entschlüsselt. Da werden elektrische Impulse ausgetauscht, klar. Aber wir wissen nicht, was die Sprachinformation eigentlich ist. Die elektrischen Impulse sind immer gleich, für visuelle wie akustische und alle anderen Wahrnehmungen. Wie wird die Sprachinformation also von Zelle zu Zelle transportiert? Womöglich nicht allein durch elektrische Impulse, sondern indem bei der Sprachverarbeitung bestimmte Zell-Ensembles in den Sprachregionen aktiv werden, die Information encodieren und decodieren.

Was können wir dagegen tun, dass nur wenige vom Fortschritt profitieren?

Sehr wahrscheinlich vergrößern künstliche Intelligenz, exzessiv eingesetzte Automatisierung und massenhaftes Datensammeln die ökonomische Ungleichheit – weil nur eine Elite daraus Vorteile zieht. Schließlich bekommen nur die Gebildeten Jobs in den großen Tech-Firmen, und die Gewinne fließen an einen kleinen Kreis von Top-Managern und Aktionären. Die Wirtschaftswissenschaft muss herausfinden, was die sozialen Konsequenzen des Fortschritts sind.

Daron Acemoğlu

55, ist Professor für Angewandte Wirtschaftswissenschaften am Massachusetts Institute of Technology. Im Mai erscheint sein neues Buch "Power and Progress" (mit Simon Johnson).

Die Vorreiter der genannten Entwicklungen, die Tech-Konzerne aus dem Silicon Valley, werden immer mächtiger, weil ökonomische Macht auch politischen Einfluss mit sich bringt. In den USA sehen wir das Phänomen am deutlichsten, die Macht konzentriert sich immer mehr bei diesen Firmen. Ich sorge mich aber auch um Europa, China und die Entwicklungsländer. Womöglich legen wir gerade die Grundlagen für eine Welt, in der größere ökonomische Ungleichheit herrscht als in den letzten Jahrhunderten. Schlimmer als im Feudalismus oder im Manchester-Kapitalismus.

Politiker werden höhere Steuern und mehr Umverteilung fordern, aber ich glaube nicht, dass dieser Weg erfolgversprechend ist. Wir müssen Technologien menschenfreundlicher machen und auch Arbeitsplätze für gering Qualifizierte schaffen. Wir brauchen neue Institutionen, die das durchsetzen. Ich habe allerdings meine Zweifel, ob die Weltgemeinschaft, die beim Kampf gegen den Klimawandel versagt, in der Lage ist, Probleme solcher Größenordnung zu lösen.

Woher kommt das Leben?

Ist das Leben im Ozean entstanden oder anderswo, in einem See oder gar in einer Pfütze? Oder ist es mit Meteoriten auf die Erde gefallen? Wo im Universum gibt es ausreichend Wasser, sodass Leben möglich wäre? Diese Fragen sind bis heute unbeantwortet.

Antje Boetius

56, ist Tiefseeforscherin. Sie leitet das Alfred-Wegener-Institut, Helmholtz Zentrum für Polar- und Meeresforschung, in Bremerhaven.

Als die Erde vor etwa 4,5 Milliarden Jahren entstand, bildete sich bald ein Ozean, in dem lebensfördernde Bedingungen entstanden. Im Meerwasser waren die elementaren Grundbausteine des Lebens vorhanden, also vor allem Kohlenstoff, Wasserstoff, Schwefel, Sauerstoff, Stickstoff, Phosphor. Unter Zufuhr von Energie konnten sich spontan organische Moleküle bilden, etwa Zucker und Aminosäuren. Und mithilfe von Mineralien dann auch Nukleinsäuren, Proteine und Lipide, ebenfalls wichtige Bausteine des Lebens. Aber was passierte, damit aus diesen Bausteinen Zellen entstehen konnten, die sich selbst replizieren und anpassungsfähig sind?

Für die Theorie, dass das Leben vom Meeresboden kommt, spricht die unerschöpfliche Verfügbarkeit von Wasser und Mineralien dort. So standen den Vorformen von zellulärem Leben für sehr lange Zeiträume ein stabiler Schutzraum und Energie zur Verfügung. Über Millionen Jahre waren der Natur unendlich viele Experimente möglich, bis schließlich Leben entstand und sich verbreitete. Übrigens tragen viele Bakterien und Mikroben auch heute noch genetische Signaturen, die darauf hindeuten, dass Mineralien vom Meeresboden ihre ersten Energiequellen waren. Es ist aufregend, dass die genetische Information des Lebens auf der Erde auch so viele Geheimnisse über seine ursprüngliche Entwicklung verraten kann – und sicher auch viele Erkenntnisse für die Zukunft. Wir müssen sie nur lesen lernen.

Was ist Dunkle Materie?

Gäbe es die unsichtbare Dunkle Materie nicht, das Universum wäre keine Ansammlung von Sternen, es wäre flach und viel größer. Es würde weder Sterne noch Galaxien geben, denn die normale, sichtbare Materie hätte sich nach dem Urknall nicht genug zusammenballen können. Erst durch die Dunkle Materie, die eine starke Gravitation ausübt, konnten Sterne und Galaxien entstehen.

Reinhard Genzel

71, ist Direktor am Max-Planck-Institut für extraterrestrische Physik in Garching. 2020 erhielt er gemeinsam mit Roger Penrose und Andrea Ghez den Nobelpreis für Physik.

Als einer der ersten Wissenschaftler hat der Schweizer Fritz Zwicky die Existenz der Dunklen Materie schon in den Dreißigerjahren erkannt, denn er maß mit dem Teleskop die Geschwindigkeiten von Galaxien, die sich in Galaxienhaufen umeinander drehen. Eigentlich müssten die Galaxien am Rand der Haufen langsamer werden, sie bewegen sich aber schnell – ohne eine unsichtbare Gravitationsquelle in der Nähe ist das nicht zu erklären.

Wir nehmen an, dass vier Fünftel der Masse des Universums aus Dunkler Materie bestehen; das würde zumindest mit den Theorien über die Entstehung des Universums zusammenpassen. Und auch neuere Forschungen zur Hintergrundstrahlung des Universums, die noch aus der Zeit des Urknalls stammt, deuten auf solche Masse-Verhältnisse hin. Heute erforschen wir unsichtbare Objekte wie Schwarze Löcher oder Ansammlungen von Dunkler Materie, indem wir messen, wie sehr ihre Gravitation das Licht der Sterne ablenkt; das können wir mit Teleskopen beobachten.

Empirisch nachgewiesen ist die Dunkle Materie allerdings immer noch nicht. Wir wissen nicht, was für Teilchen das überhaupt sind. Sehr wahrscheinlich sind sie sehr massereich. Wenn wir verstehen, worum es sich bei Dunkler Materie handelt, werden wir viele Rätsel des Universums und auch des Urknalls lösen.

Können wir den Klimawandel aufhalten, indem wir Kohlendioxid in seine Elemente aufspalten?

Es gibt ja bereits den Vorschlag, den Klimawandel zu bekämpfen, indem man das für die Erderwärmung verantwortliche Kohlendioxid aus der Luft holt und es im Erdboden speichert. Abgesehen davon, dass Kohlendioxid in der Atmosphäre nur in winziger Dosierung vorhanden ist, ist es technisch sehr schwierig, der Luft CO2 zu entziehen. Ich fände die Idee charmanter, Kohlendioxid in etwas Wertvolles umzuwandeln, in Kohlenstoff nämlich.

Benjamin List

55, ist Direktor am Max-Planck-Institut für Kohlenforschung in Mülheim an der Ruhr. 2021 erhielt er zusammen mit David MacMillan den Nobelpreis für Chemie für die Entdeckung, dass nicht nur Metalle, sondern auch organische Moleküle als Katalysatoren chemische Reaktionen beschleunigen. Auf diesem Weg werden heute Medikamente gegen HIV hergestellt.

Dazu müsste man das Kohlendioxid in einem Prozess, der der Fotosynthese sehr ähnlich ist, in seine Bestandteile zerlegen. Die Pflanzen erzeugen aus Kohlendioxid mithilfe von Licht Kohlenhydrate und Sauerstoff. Hier würde man das Kohlendioxid nun unter Energiezufuhr in Kohlenstoff und Sauerstoff spalten. Aus dem Kohlenstoff könnte man wiederum vieles machen, zum Beispiel fast alle organischen Moleküle, Benzin, Kunst- und Baustoffe, vielleicht sogar Diamanten. Das sollte dann aber in gigantischen Mengen geschehen, denn die Menschheit produziert jedes Jahr viele Milliarden Tonnen Kohlendioxid durch Verbrennung.

Einen großen Teil des zurückgewonnenen Kohlenstoffs könnte man dann in Form von Kohle zum Beispiel wieder im Ruhrgebiet vergraben. Ich scherze manchmal: Vielleicht können wir auch irgendwann aus Kohlenstoff oder sogar Diamantenstaub Hochhäuser bauen.

Ich gebe zu, das ist alles an der Grenze des Vorstellbaren. Es gibt meines Wissens noch niemanden, der sich ernsthaft mit einer Lösung dieser Frage beschäftigt. Aber alles, was theoretisch möglich ist, sollte man in Anbetracht des Problems nicht verwerfen.

Seit wann UND WARUM gibt es Musik?

Die ältesten Instrumente, die jemals gefunden wurden, sind Knochenflöten von der Schwäbischen Alb, sie sind ungefähr 40.000 Jahre alt. Das ist die Zeit, in der Homo sapiens in Europa einwanderte. Einer der Archäologen, die die Flöten aus Gänsegeierknochen in der Nähe von Ulm fanden, hat eine von ihnen aus Holz nachbauen lassen. Sie klingt modernen Flöten erstaunlich ähnlich.

Melanie Wald-Fuhrmann

44, ist Direktorin der Musikabteilung am Max-Planck-Institut für empirische Ästhetik in Frankfurt am Main.

Wann und wo genau auf der Welt zum ersten Mal Musik gemacht worden ist, werden wir allerdings nie wissen. Paläoanthropologen, die anhand von Fossilien den Stimmapparat verschiedener Hominiden-Arten zu rekonstruieren versuchen, nehmen an, dass das Singen aufgrund seiner Kehlkopf-Anatomie erst dem modernen Menschen möglich gewesen ist, den es seit etwa 300.000 Jahren gibt. Und es ist ja vorstellbar, dass die Menschen bereits gesungen und dazu geklatscht und gestampft haben, ehe sie Instrumente erfanden.

Neben der Frage nach dem Wann ist daher auch die Frage nach dem Warum spannend: Wozu diente Musik unseren Vorfahren? Viele Antworten wurden darauf schon gegeben: zur Partnerwerbung, um Kinder in den Schlaf zu wiegen, zur zeitlichen Koordination gemeinsamer körperlicher Arbeit, zum Schmieden von Gemeinschaften, zur Ausübung von Religion. All diese Funktionen hat sie ja auch heute noch.

Bringt das Gehirn den Geist hervor?

Seit der Antike wird heftig darüber diskutiert, welche Beziehung der Geist – oder anders gesagt: das Bewusstsein – und das Gehirn zueinander haben. Unklar ist bis heute, ob dabei ein als immateriell angesehener Geist auf das Gehirn einwirkt oder ob das Gehirn den Geist hervorbringt und dieser gewissermaßen selbst etwas "Materielles" ist. Viele Philosophen halten diese Frage für prinzipiell unlösbar.

Gerhard Roth

80, war Biologe und Philosoph. Er leitete das Institut für Hirnforschung der Universität Bremen und führte das nach ihm benannte Roth Institut, das Führungskräfte schult. Er starb im April.

Die Hirnforschung zeigt, dass unser bewusstes Erleben an bestimmte Vorgänge im Gehirn gebunden ist. Während manche Philosophen und Psychologen darin oft eine bloße Parallelität sehen, gehen Hirnforscher davon aus, dass das Gehirn Bewusstseinszustände hervorbringt und nicht umgekehrt, denn Narkosemittel, Drogen, elektrische Stimulation oder auch ein Mangel an Sauerstoff oder Zucker haben voraussagbare Folgen: Dann kann das Bewusstsein beeinträchtigt werden. Daraus schließen die Forscher, dass auch bewusste Prozesse, die sich den Naturgesetzen zu entziehen scheinen, den Naturgesetzen unterliegen. Zudem werden die Signale in den Nervenzellen ja durch elektrische Impulse weitergeleitet, oft in unterschiedlichen Frequenzen. Viele Wissenschaftler meinen, dass Bewusstsein mehr oder weniger direkt mit bestimmten Überlagerungen von Frequenzen zusammenhängt, aber über diese Prozesse weiß man noch wenig.

Das Dilemma unserer Erkenntnis besteht darin, dass wir, wenn wir uns selbst beobachten, nichts von den unserem Bewusstsein zugrunde liegenden Hirnprozessen erleben. Und selbst wenn wir Hirnprozesse experimentell untersuchen, werden wir nie Bewusstsein entdecken, es wird für uns immer unsichtbar bleiben.

Warum gibt es keinen Impfstoff gegen HIV?

Es ist zwar gelungen, wirksame Impfstoffe gegen die Coronavirus-Erkrankung herzustellen, beim Aids-Virus HIV und beim Hepatitis-C-Virus HCV hat man jedoch bislang keinen Erfolg gehabt. Der Grund: Sobald der Patient nach einer Covid-19-Infektion oder auch nach einer Grippe wieder gesundet, ist das Virus aus dem Körper verschwunden – bei HIV wird es ins Erbgut der befallenen Zellen eingebaut. Viren wie HIV und HCV schwächen noch dazu das Immunsystem, sobald sie aktiv sind. Und sie sind sehr variabel, verändern sich ständig.

Helga Rübsamen-Schaeff

ist Chemikerin. Sie war Leiterin der Infektionsforschung bei Bayer, wo sie an Medikamenten gegen eine Vielzahl von Infektionskrankheiten arbeitete. Sie gründete eine Biotechfirma, die bereits ein antivirales Medikament auf den Markt gebracht hat.

Die Frage ist daher auch, ob es möglich sein kann, durch eine Impfung einen langfristigen Schutz vor einer Infektion zu erhalten, wenn die Krankheit das selbst nicht auf natürlichem Weg bewirkt. Eine Masern-Impfung bietet lebenslang hohe Immunität, weil sie im Prinzip genau wie eine Masern-Erkrankung wirkt, nach der man ja lebenslang geschützt ist. Eine Impfung gegen Grippe oder auch Covid-19 wirkt dagegen nur begrenzt, weil auch die Infektion selbst nur für kurze Zeit immunisiert; dass wir diesen Winter eine Grippe haben, heißt also nicht, dass wir im kommenden Winter nicht wieder eine bekommen werden. Die Viren verändern sich sehr schnell und derart, dass unser Immunsystem abermals lernen muss, mit ihrer Abwehr zurechtzukommen.

Bei Covid-19 besteht bekanntlich das Problem, dass die Impfung vor den schweren Folgen der Krankheit schützt, der Schutz vor einer Infektion aber nur wenige Monate anhält. Ein Erfolg wäre es schon, wenn man diesen Zeitraum um ein paar Monate verlängern könnte, etwa mittels einer Impfung durch die Nase, weil die das Gewebe dort immunisiert, wo die Infektion stattfindet, also in Nase und Rachen. Ein zu inhalierender Impfstoff wurde bereits in China zugelassen, andere Hersteller arbeiten an Nasensprays. Noch in diesem Jahr werden Studien wohl erste Antworten liefern.

Auch bei HIV setzt man auf die mRNA-Technologie, die sich bei Covid-19 bewährt hat, erste Impfstoffe werden bereits getestet. Ich bin allerdings eher skeptisch, dass es gelingen wird, diese trickreichen Viren allein durch Impfung in den Griff zu bekommen, man muss unbedingt auch Medikamente entwickeln.

Werden Maschinen leiden, wenn sie Bewusstsein entwickeln?

Könnten Maschinen so etwas wie "künstliche Erlebnisse" haben, vielleicht sogar ein Bewusstsein ihrer selbst? Die meisten Philosophen halten es prinzipiell für möglich, wie auch viele Computer- und Neurowissenschaftler. Obwohl dies meiner Meinung nach nicht in absehbarer Zeit geschehen wird, so ist es doch sicher, dass wir dann ein Ereignis von historischer Dimension erleben würden. Gäbe es auf einmal bewusste Maschinen, dann könnte in ihnen auch so etwas wie ein Ich-Gefühl entstehen. Auf eine solche Situation wäre weder unsere Kultur noch unsere Gesellschaft vorbereitet.

Thomas Metzinger

65, war Professor für Theoretische Philosophie an der Universität Mainz. Er gehörte einer internationalen Expertengruppe an, die die Europäische Union zur Regulierung künstlicher Intelligenz beriet. In seinem kürzlich erschienenen Buch "Bewusstseinskultur" setzt er sich auch mit den Folgen künstlichen Bewusstseins auseinander.

Das größte Risiko sehe ich darin, dass wir ein gigantisches Ausmaß an Leid erzeugen, wie heute bereits bei Abermilliarden von Nutztieren. Oder Versuchstieren in der Wissenschaft. Denn Maschinen mit einem bewussten Ich-Gefühl, das würde auch bedeuten: Diese Maschinen könnten leiden. Leid definiere ich als einen Zustand, den ein System lieber nicht hätte, wenn es die Wahl hätte. Zum Beispiel, wenn es seine Aufgabe ist, uns Menschen zu dienen, es diese aber unerwarteterweise nicht erfüllen kann. Oder wenn seine Hardware beschädigt wird. Theoretisch könnten künstliche Systeme sogar darunter leiden, dass sie von uns Menschen nur benutzt werden und sich als Subjekte zweiter Klasse fühlen.

Man könnte einwenden: Wie kann ein künstliches Bewusstsein Leid empfinden, wenn es keinen Körper und keine Schmerzrezeptoren hat? Aber auch beim Menschen ist nicht alles Leiden rezeptorbasiert – wir haben Ziele, die sich nicht erfüllen, es gibt böse Überraschungen, wir leiden an Weltschmerz. Und intelligente Roboter haben längst Sensoren, die inneren und äußeren Sinnesorganen ähneln. Für uns Philosophen stellen sich dann große Fragen: Müssten wir ethische Ratschläge erteilen, wie sie zu behandeln wären? Was machen wir, wenn sie einen Personenstatus von uns fordern? Und selbst wenn alle Experten bestreiten, dass solche Maschinen Bewusstsein haben, so würde es ausreichen, dass große Teile der Bevölkerung plötzlich davon überzeugt sind und sich für die Maschinen einsetzen: Dann hätte man ein echtes politisches Problem.

In einer Welt mit bewussten Maschinen ergäbe sich andererseits vielleicht die Chance, erstmals eine leidfreie Form von bewusstem Erleben zu schaffen. Ohne Gier und Hass, ohne die ständige Angst des Menschen, dass sein biologischer Körper zerfällt. Vielleicht könnte es eine KI geben, die sich selbst freiwillig abschaltet, wenn sie keinen Sinn mehr in ihrer Existenz sieht.

Was ist das Geheimnis der Primzahlen?

Die Primzahlen 2, 3, 5, 7, 11 ... – also natürliche Zahlen, die man nicht als Produkte kleinerer Zahlen zerlegen kann – sind bis heute ein Mysterium. Ihre Verteilung unter den anderen Zahlen folgt zwar überraschend präzisen Gesetzen. Trotzdem bleibt vieles ein Rätsel: Ist jede gerade Zahl – 4, 6, 8 und so weiter – wirklich eine Summe von zwei Primzahlen? Gibt es tatsächlich unendlich viele Primzahlzwillinge wie 11 und 13, mit nur einer Zahl dazwischen? Und vor allem: Seit der Antike wissen wir, dass es unendlich viele Primzahlen gibt – aber wie häufig sind sie in bestimmten Zahlenbereichen?

Günter M. Ziegler

59, ist Mathematiker und Präsident der Freien Universität Berlin.

Das würden wir gern etwa für alle Zahlen mit 100 Stellen oder sogar jene mit 1.000 Stellen wissen. Computer helfen da nicht viel weiter, ihre Rechenleistung ist zu begrenzt. Gezählt hat man bisher immerhin die Primzahlen mit bis zu 29 Stellen, und bis zu denen mit 30 Stellen ist es sicher nicht mehr weit.

Einem genialen Mathematiker, Bernhard Riemann, der auch die mathematischen Fundamente für Einsteins Gravitationstheorie gelegt hat, ist im Jahr 1859 ein entscheidender Schritt gelungen: Er hat als Schlüssel für die Verteilung der Primzahlen eine komplexe Funktion studiert, die "Riemannsche Zeta-Funktion". Wenn es stimmt, wie Riemann vermutet hat, dass die nichttrivialen Nullstellen der Zeta-Funktion alle den Realteil ½ haben – einfacher kann ich es leider nicht ausdrücken –, dann liefert das sehr präzise Schätzungen für die Häufigkeit der Primzahlen. Die ganze Welt der Mathematik glaubt, dass die Riemannsche Vermutung richtig ist, aber leider ist es in mehr als 150 Jahren noch niemandem gelungen, sie zu beweisen. Seit dem Jahr 2000 verspricht die US-amerikanische Clay-Stiftung für die Lösung des Problems eine Million Dollar. Wer das Rätsel löst, dessen Name wird für immer im Gedächtnis der Mathematik bleiben.

Warum leben Affen in so vielen unterschiedlichen Gesellschaftsformen?

Der Kernbereich meines Forschungsgebiets, der Primatologie, sind Affen. Die große Frage ist für mich, warum es bei den Primaten so viele unterschiedliche Gesellschaftsformen gibt, mehr als bei anderen Säugetieren. Man kann staunen über diese Explosion an Vielfalt, über die je nach Art ganz anders strukturierten Sozialverbände.

Julia Fischer

56, ist Biologin und Verhaltensforscherin. Am Deutschen Primatenzentrum in Göttingen leitet sie die Abteilung für Kognitive Ethologie.

Ein besonders anschauliches Beispiel sind die Paviane. Es gibt sechs Arten, die ganz unterschiedlich sind. Bei den Guinea-Pavianen, die wir mit unserem Team im Senegal studieren, bleiben die Männchen dort, wo sie geboren sind, und die Weibchen gehen weg – bei den meisten anderen Pavian-Arten ist es umgekehrt, die Männchen verlassen den Verband. Ein männlicher Guinea-Pavian lebt meistens mit mehreren Weibchen zusammen, die Männchen sind untereinander befreundet und sehr kooperativ, auch das ist bei diesen Pavianen einzigartig. Selbst zwischen den unterschiedlichen Gruppen gibt es kaum Konkurrenz; wir nennen sie deshalb auch unsere "Hippie-Paviane".

Bisher hat die Wissenschaft versucht, solche Unterschiede als Anpassung an die Umwelt zu erklären, vor allem an die Qualität und Verteilung der Nahrung. Aber es gibt bei den Pavianen keine Korrelation zwischen der Futterverteilung und der sozialen Organisation oder dem Grad der Konkurrenz. Man sucht daher die Erklärung auch in der evolutionären Vergangenheit.

Das Problem ist, dass wir noch nicht richtig unterscheiden können, wie wir welche Anpassungsleistung bewerten sollen – welche Eigenschaften sind eher vor relativ kurzer Zeit entstanden und welche viel früher? Und welche Grenzen setzt die Evolution in der Anpassungsfähigkeit eines Individuums.

Wie baut man einen Quantencomputer, und wozu ist er gut?

In der Quantenphysik befinden wir uns computertechnisch in einer Ära, die man mit der Anfangszeit der elektronischen Datenverarbeitung in den Vierzigerjahren des vorigen Jahrhunderts vergleichen kann: als Computer mit Röhren arbeiteten, Lagerhallen füllten und ihr Nutzen noch nicht absehbar war. Klassische Computer haben seitdem rasante Fortschritte erzielt, und die Hoffnung ist, dass Quantencomputer eine vergleichbare Entwicklung durchmachen werden. Theoretisch können Quantencomputer durch Nutzung von quantenmechanischen Effekten schwierige Aufgaben lösen, die herkömmliche Computer überhaupt nicht bewältigen könnten, etwa die Zerlegung großer Zahlen in Primzahlen.

Hannes Pichler

36, ist Professor für Theoretische Quantenphysik an der Universität Innsbruck. Er erforscht die Grundlagen der Quantenmechanik.

Es gibt verschiedene Ansätze, solche Quantencomputer zu bauen. Im Labor unserer Experimentalphysiker befindet sich ein Prototyp, dessen Herzstück eine Kette von Atomen ist. Man kann sich das so vorstellen, dass um den Kern eines Atoms ein Elektron in verschiedenen Bahnen kreist, mal nah, mal weiter weg. Jede der beiden Umlaufbahnen ist ein anderer Quantenzustand, ein Atom kann beide Zustände zugleich einnehmen. Welcher Zustand gerade herrscht, wird mit einem Laser abgelesen.

Gewöhnliche Computer arbeiten mit den zwei Zuständen null und eins. Diese beiden Zustände liefert mir also schon ein einziges Atom. Mit jedem weiteren Atom wächst die Zahl der möglichen Variationen exponentiell. Bei einer Kette von 100 bis 200 Atomen – das ist gerade State of the Art – ergibt sich also eine gigantische Zahl von Kombinationen, die ein Quantencomputer zugleich analysieren kann.

Der Aufwand, so etwas zu betreiben, ist allerdings enorm: Ein Quantenprozessor ist zwar mikroskopisch klein; der Apparat drumherum – die Laser, die die Atome in einem Vakuum festhalten müssen, die Maschinen, die das System fast bis zum absoluten Nullpunkt kühlen, und einiges mehr –, all das nimmt einen ganzen Raum ein. Und trotzdem sind die Leistungen immer noch überschaubar, die meisten Rechnungen können ebenso von gewöhnlichen Computern durchgeführt werden.

Neben der praktischen Entwicklung dieser Geräte stellt sich auch die Frage, welche Probleme man mit einem Quantencomputer überhaupt effizient lösen kann. Das wissen wir tatsächlich immer noch nicht. 2019 verkündete der amerikanische Tech-Konzern Alphabet, zu dem auch Google gehört, er habe mit einem von ihm konstruierten Quantencomputer den Nachweis erbracht, dass sein System eine Rechenaufgabe bewältigt habe, die mit herkömmlichen Computern nicht lösbar ist. Die von Alphabet benutzte Rechenaufgabe ist allerdings für jegliche praktische Anwendung irrelevant; es ging um ein sehr spezielles quantenmechanisches Problem, das nur von akademischem Interesse ist. Wird es irgendwann einen Quantencomputer geben, der echte Probleme löst? Mit dessen Hilfe man neue Materialien oder Medikamente erfinden kann? Ganz ehrlich: Wir wissen es nicht.

Dieser Artikel ist Teil von Zeit am Wochenende, Ausgabe 19/2023.

Bewertung: 5/5 (6 Stimmen)

Weitere Artikel zum Thema Leben