Ein Blog über die Wissenschaft hinter Arzneimitteln

Category: Chemie

Die Jagd nach neuen Antibiotika – Antibiotika-Resistenzen, Teil 2

Immer mehr Antibiotika-resistente Bakterienstämme stellen die Medizin vor eine große Herausforderung. Denn bei vielen Infektionen, die eigentlich mal einfach zu behandeln waren, versagen die gängigen Antibiotika. Neue antibakterielle Arzneimittel werden so dringend benötigt wie selten zuvor, aber dennoch läuft die Entwicklung neuer Antibiotika sehr langsam. Wieso das so ist, und welche Strategien vielleicht trotzdem zum Erfolg führen könnten, lest ihr hier.

Enges vs. breites Spektrum

Wie ich in Teil 1 beschrieben habe, ist die Entstehung von immer mehr Antibiotika-resistenten Bakterienstämmen im Prinzip unvermeidbar, solange wir Antibiotika verwenden; wenn ihr wissen wollt wieso, dann lest Teil 1 doch gerne zuerst.

Die Tatsache, dass die Zahl der Resistenzen zunimmt, bedeutet natürlich auch, dass wir neue Behandlungsoptionen brauchen. Wie die Aussehen könnten, und welche Probleme es dabei gibt, beschreiben zum Beispiel zwei spannende Reviews von Cook und Wright und Bergkessel et al. Neue Antibiotika sind aber gar nicht so einfach zu finden: Antibiotika müssen oft in hohen Dosen eingesetzt werden und dürfen daher auf keinen Fall zu toxisch sein. Außerdem müssen sie anderen physikochemischen Eigenschaften entsprechen als „normale“ Arzneistoffe, weil sie ja nicht nur von Menschen aufgenommen werden und in ihnen wirken sollen, sondern auch zusätzlich in die Bakterien gelangen und dort wirken müssen. Vor allem gibt es aber sehr viele unterschiedliche Bakterien und je breiter das Wirkspektrum sein soll – also gegen wie viele verschiedene Bakterien ein Stoff wirkt – desto schwieriger wird es.

Breitband-Antibiotika haben einen entscheidenden Vorteil: Sie brauchen viel weniger Diagnostik. Während vor dem Einsatz von Stoffen mit engem Spektrum erst die Erreger identifiziert werden müssen, können Breitband-Antibiotika ohne diesen Nachweis verwendet werden. Und auch wenn nicht unnötigerweise breit therapiert werden sollte, fehlt für einen Erregernachweis oft die Zeit (häufig beruht der Nachweis noch auf der Anzucht der Bakterien, was einige Tage dauern kann). Allerdings sind neue Breitband-Antibiotika viel schwieriger zu finden als solche mit engem Spektrum. Daher könnte die Zukunft der antibiotischen Therapie aus mehr Stoffen mit engem Spektrum in Kombination mit schnelleren (point of care) Nachweisen der Erreger bestehen.

Neue Antibiotika aus der Natur

Woher sollen die neuen Antibiotika kommen? – Und ich meine damit wirklich neue Antibiotika, mit neuen Zielstrukturen und Wirkmechanismen, statt Derivaten bereits bekannter Stoffe. Eine Möglichkeit wäre der Ort, von dem auch viele der etablierten Antibiotika kommen: Aus der Natur. Denn tatsächlich produzieren viele Mikroorganismen antibakterielle Stoffe und die meisten Antibiotika sind entweder direkt mikrobiellen Ursprungs oder davon abgeleitet.

Streptomyces, eine Gattung der Actinomyceten

Bei den Antibiotikaproduzenten stechen vor allem die Actinomyceten hervor (also um genau zu sein Bakterien der Ordnung der Actinomycetales, aber ehrlicherweise verwirrt mich Systematik von Bakterien immer etwas). Um dann aber neue Stoffe zu finden und nicht nur bekannte, müssen neue Techniken verwendet werden. Methoden wie die Genomik bieten gute Ansatzpunkte jenseits der phänotypischen Testung, also im Prinzip einfach des „Ausprobierens“, ob die Anwesenheit bestimmter Bakterien oder Stoffe das Wachstum anderer Bakterien hemmt. So kann zum Beispiel nach potentiellen Biosynthese-Genclustern neuer antibakterieller Stoffe gesucht werden oder nach bestimmten Resistenzgenen – die meisten Antibiotika-produzierenden Mikroorganismen tragen nämlich auch Resistenzen dagegen in ihrem Erbgut. Es könnte sich aber auch lohnen, abseits der Actinomyceten zu suchen und andere Mikroorganismen unter die Lupe zu nehmen, die bisher nicht so ausführlich nach neuen Antibiotika untersucht wurden.

So viele Möglichkeiten die genomischen Methoden auch bieten, sollte man dabei die besonderen Anforderungen an Antibiotika nicht aus den Augen verlieren. Tausend neu identifizierte Biosynthese-Gene bringen nichts, wenn die entsprechenden Stoffe die Zellwand von Bakterien nicht überwinden können oder von den Bakterien direkt wieder aus der Zelle herausgeschleust werden. Zusätzlich spielt auch der Kontext der Infektion eine Rolle: Bakterien verhalten sich bei einer Infektion unter Umständen anders als in einer Laborkultur und dementsprechend kann auch der Effekt eines potentiellen Antibiotikums unterschiedlich sein.

Alte Arzneistoffe als neue Antibiotika

Naturstoffe sind aber natürlich nicht die einzige Möglichkeit, um neue Antibiotika zu finden. Auch komplett synthetische Stoffe können Potential haben, wie die sogenannten Oxazolidinone zeigen, eine Gruppe synthetischer Antibiotika, zu denen u.a. das klinisch sehr wichtige Linezolid gehört.

Neue (synthetische) Antibiotika-Kandidaten müssen allerdings nicht unbedingt neue Moleküle sein. Es gibt ein Methode namens drug repurposing, bei der existierende Arzneistoffe für neue Einsatzgebiete verwendet werden. Ein erfolgreiches Beispiel ist Zidovudin, ein Wirkstoff bei HIV-Infektionen, das ursprünglich jedoch gegen Krebs entwickelt wurde. Tatsächlich sind etwa 30 % der zugelassenen Arzneistoffe der letzten Jahre in solcher Weise wiederverwendet – allerdings kein einziges Antibiotikum.

Viele existierende Wirkstoffe zeigen zumindest in vitro antibakterielle Eigenschaften, auch wenn das für ihre in vivo-Anwendung an Menschen noch nicht viel heißen muss. Der Vorteil des drug repuposings ist jetzt, dass für diese Stoffe häufig schon Daten zur Toxizität, zur Pharmakokinetik, der Maximaldosis usw. bekannt sind. Dadurch ist es viel einfacher abzuschätzen, ob sie sich tatsächlich auch als klinisch nützliche Antibiotika eigenen würden, und falls ja ist der Weg dahin sowohl günstiger als auch schneller.

Und selbst falls die antibakterielle Wirkung allein zu gering sein sollte, könnten solche Stoffe eventuell als Adjuvans eingesetzt werden, die in Kombination die antibakterielle Wirkung eines anderen Wirkstoffs verstärken oder Resistenzen umgehen, ohne selbst (stark) antibakteriell zu sein.

Bakteriophagen – Viren gegen Bakterien

Einige Menschen werden sich jetzt wohl Fragen: Wann geht es endlich um Phagen? Bakteriophagen sind eine Art Trendthema, wenn es um Alternativen zu Antibiotika geht. Es sind Viren, die ausschließlich Bakterien befallen und damit prinzipiell perfekt um selektiv Bakterien abzutöten. Genau darauf haben sie sich schließlich über Millionen Jahre an Evolution entwickelt.

Phagen infizieren immer nur spezifische Arten von Bakterien, wodurch sie z.B. gegenüber des Mikrobioms sehr schonend sind. Diese Selektivität ist aber nicht nur ein Vorteil: Phagen haben das gleiche Problem wie Antibiotika mit engem Spektrum. Sie brauchen einen ausführlichen Erregernachweis, was nicht immer praktikabel ist. Außerdem sind Phagen potentiell immunogen, können also vom Immunsystem erkannt werden und Abwehrreaktionen wie Fieber auslösen.

T4 Phagen infizieren E. coli Bakterien (Bild: Leppänen et al. DOI 10.1002/adbi.201700070, CC BY-SA 4.0)

Ein Mythos ist, dass Phagen keine Probleme mit der Entwicklung von Resistenzen hätten. Zwar haben sie sich sehr lange entwickelt, um Bakterien zu infizieren und zu töten, aber die Bakterien hatten genauso lange Zeit, um Abwehrmechanismen zu entwickeln. Kombinationen verschiedener Phagen könnten Resistenzen verzögern, und weiterentwickelte Varianten könnten eine bestehende Resistenz überwinden, aber im Prinzip haben Phagen, was die Resistenzentwicklung angeht, nicht wirklich Vorteile gegenüber Antibiotika.

Das soll allerdings nicht heißen, dass die Phagentherapie keinen Platz in der Behandlung von Infektionen hätte. Gerade wenn sich auch die Identifikation von Erregern weiterentwickelt, können Phagen eine wichtige Rolle bei Infektionen mit Antibiotika-resistenten Bakterien spielen. Dass der Einsatz von Phagen eine hoch-personalisierte Therapie und damit aufwändig  und teuer ist, und daher auch Antibiotika nicht ersetzen kann, wird sich jedoch nicht so schnell ändern.

Das wirtschaftliche Problem

Das größte Hindernis bei der Entwicklung neuer Antibiotika habe ich jedoch noch gar nicht angesprochen. Es ist allerdings kein wissenschaftliches Problem, sondern ein wirtschaftliches.

Mit neuen Antibiotika verdient nämlich niemand Geld. Die Entwicklung von Arzneimitteln ist – vor allem durch klinische Studien – extrem teuer. Für den Entwicklungsprozess, von der Entdeckung einer Leitstruktur bis zur Einführung in die Klinik, muss ein Unternehmen etwa 1,5 Milliarden Euro investieren, im Verkauf sind Antibiotika aber eher Pfennigware. Außerdem sollten neue Antibiotika im Idealfall so selten wie möglich eingesetzt werden; sie sollten als Reserve-Arzneimittel für dringende Fälle vorbehalten werden, damit sich nicht direkt neue Resistenzen dagegen entwickeln. Das alles führt nur leider dazu, dass Unternehmen mit neuen Antibiotika ihre Investitionskosten nicht wieder reinholen können, und daher auch keinen Anreiz dazu haben, Antibiotika zu entwickeln.

Tatsächlich wird daher überproportional viel Arbeit in diesem Bereich von der akademischen Forschung übernommen, viel mehr als bei anderen Arzneimittelgruppen. Allerdings haben die Universitäten bei weitem nicht genug Mittel, diese Aufgabe allein zu übernehmen.

Wir haben in unserer Gesellschaft entschieden, dass neue Arzneimittel von gewinnorientierten Unternehmen entwickelt werden und diese Forschung nicht von der öffentlichen Hand finanziert wird. Dieses Modell funktioniert jetzt – leider im Angesicht von mehr und mehr Resistenzen – allerdings nicht mehr.

Eine dreiteilige Lösung

Wir brauchen also eine dreiteilige Lösung für das Resistenz-Problem: Der erste Teil ist eine wissenschaftliche Lösung für die Entwicklung neuer antibakterieller Wirkstoffe. Dazu gehört ein besseres Verständnis für die physikochemischen Eigenschaften von Antibiotika, neue Quellen für Leitstrukturen wie z.B. bisher wenig untersuchte Mikroorganismen oder das drug repurposing, und sinnvolle Plattformen zur Evaluation der antibakteriellen Wirkung, die verschiedene bakterielle Physiologien und Infektionskontexte nicht außer Acht lassen.

Der zweite Teil ist eine therapeutische Lösung. Sie muss eine schnellere und einfachere Identifikation von Erregern, den gezielten Einsatz von Antibiotika mit engem Spektrum und personalisierten Therapien, die Verwendung von Adjuvantien und Hemmstoffen von Resistenzmechanismen, und ein sinnvolles Therapiemanagement zur Verlangsamung der der Resistenzentstehung umfassen. Außerdem ist eine der besten Methoden gegen Antibiotika-resistente Erreger die Vermeidung von Infektionen. Das ist natürlich selbst ein großes Feld, aber klar ist, dass Impfungen auch im Rennen gegen Antibiotika-Resistenzen extrem wichtig sind.

Der dritte Teil ist schließlich eine wirtschaftliche und politische Lösung. Neue Antibiotika kosten Geld, und dieses Geld müssen wir irgendwie aufbringen. Wir können nicht erwarten, dass unser auf Gewinn ausgelegtes Gesundheitssystem Therapien hervorbringt, die mehr kosten als sie einbringen. Und diese wirtschaftliche Lösung muss immer auch global gedacht werden: Auch in ärmeren Ländern muss die Versorgung mit (neuen) antibakteriellen Arzneimitteln sichergestellt sein. Resistenzen können überall auf der Welt  entstehen und Bakterien halten sich nicht an Staatsgrenzen, und deshalb sind neue Antibiotika nur für reiche Industrienationen niemals ausreichend.

Wenn euch dieser Beitrag gefallen hat, abonniert doch gerne meinen Newsletter, um keine Blogposts mehr zu verpassen. Und hier geht es nochmal zum ersten Teil dieses Textes über die Entstehung von Resistenzen und Resistenzmechanismen, falls ihr ihn noch nicht gelesen habt.

Von Regeln und Regelbrechern – Die Lipinski Rule of Five

In diesem Text geht es um ein klassisch pharmazeutisches Thema: Die Lipinski Rule of Five. Diese Regel beschreibt Eigenschaften, auf die man bei der Suche nach neuen Arzneistoffen achten sollte – und vereinfacht damit diese sehr komplexe Aufgabe. Aber ist die Rule of Five überhaupt eine Regel, der man blind folgen sollte? Oder schafft man damit neue Probleme, weil man andere lösen möchte?

Die Rule of Five

Die Lipinski Rule of Five wurde (wer hätte es gedacht) von Christopher Lipinski zusammen mit seinen Kolleg:innen Ende der 90er Jahre in diesem Paper beschrieben. Seither hatte diese Regel einen großen Einfluss darauf, wie wir denken, dass ein Arzneistoff zu sein hat. Genauer gesagt, ein Arzneistoff zur oralen Anwendung. Denn das ist das große Thema hinter der Rule of Five: Kann ein Arzneistoff über den Verdauungstrakt – und hier vor allem im Darm – aufgenommen werden? Und können wir das irgendwie abschätzen, ohne aufwändige Experimente machen zu müssen?

Lipinski et al. beschrieben, dass sie das mit nur vier einfachen Informationen abschätzen können: (1) Eine relative Molekülmasse von unter 500, (2) nicht mehr als 5 Wasserstoffbrücken-Donatoren, (3) nicht mehr als 10 Wasserstoffbrücken-Akzeptoren und (4) ein logarithmischer Oktanol-Wasser-Verteilungskoeffizient unter 5. Der Name Rule of Five kommt daher, dass alle diese Zahlen (500, 5, 10, nochmal 5) Mehrfache von 5 sind.

Das hört sich erstmal ganz schön chemisch an (und für manche damit überhaupt nicht einladend), und auch wenn es im Kern sehr chemisch ist, ist es dennoch relativ intuitiv, wenn wir verstehen, wie oral angewendete Arzneistoffe aufgenommen werden.

Was Arzneistoffe zur oralen Anwendung brauchen

Arzneimittel zur oralen Anwendung sind extrem wichtig. Sie sind einfach, zuverlässig und schnell anzuwenden, und das ist entscheidend, um Anwendungsfehler zu verhindern und die Therapietreue bei Patient:innen sicherzustellen. Aber damit ein Arzneimittel oral angewendet werden kann, muss der enthaltene Arzneistoff irgendwie im Verdauungstrakt aufgenommen werden können. Dafür muss er einige Barrieren überwinden, die – etwas vereinfacht – aus den Zellmembranen der Darm- und Magenschleimhaut bestehen. Wenn ihr mehr darüber wissen wollt, lest doch gerne meinen Beitrag zur Pharmakokinetik (mein allererster Blogbeitrag übrigens).

Das Problem ist jetzt, dass der Arzneistoff dafür einen ziemlichen Balanceakt hinlegen muss. Denn der Magen- und Darminhalt besteht vor allem aus Wasser, und damit ein Arzneistoff resorbiert werden kann, muss er sich erst darin lösen. Danach muss er die Zellmembranen durchdringen, die sehr lipophil sind, wofür der Arzneistoff also eher fettlöslich sein sollte. Ein Arzneistoff muss also wasserlöslich genug sein, aber auch nicht zu wasserlöslich. Tatsächlich ist es klassischerweise am besten, wenn der Arzneistoff relativ klein und eher lipophil ist.

Wie ermöglichen jetzt unsere vier eher simplen Informationen, diesen komplexen Vorgang abzuschätzen?

Das Molekulargewicht ist ein Maß für, naja, die Größe des Arzneistoffs. Denn je größer er ist, desto schwerer soll es für ihn sein, Zellmembranen zu überwinden.

Wasserstoffbrücken sind Interaktionen des Arzneistoffs mit polaren Molekülen – in diesem Kontext also vor allem Wasser. Je mehr davon, desto schwerer wird es für den Arzneistoff, lipophile Membranen zu durchdringen. (Kurz gesagt: Durch den Gewinn an Bindungsenthalpie durch die H-Brücken ist es energetisch am günstigsten, wenn alle H-Brücken-Donatoren und -Akzeptoren abgesättigt sind, was innerhalb der Membran natürlich nicht möglich ist.)

Der Oktanol-Wasser-Verteilungskoeffizient beschreibt, welcher Teil eines Stoffes in einer unpolaren Oktanol-Phase zu finden ist, und welcher Teil in einer polaren Wasser-Phase. Damit sagt er etwas über die generelle Lipophilie aus. Ein oraler Arzneistoff sollte zwar eher lipophil sein, aber auch nicht zu sehr, daher sollte der logarithmische Verteilungskoeffizient 5 nicht überschreiten.

Die Alternativen

In den etwas mehr als 20 Jahren seit Veröffentlichung der Rule of Five hat sie sich als sehr nützlich erwiesen. Aber es gab auch Kritik, und Verbesserungsvorschläge. Ich möchte auf die Erweiterungen der Rule of Five gar nicht genauer eingehen. Die Grenzwerte werden präzisiert und es geht außerdem um Faktoren wie die Anzahl drehbarer Bindungen oder die Größe der polaren Oberfläche.

Da die Rule of Five nicht als in Stein gemeißelte Regel, sondern eher als grobe Richtlinie zu verstehen ist, gibt es natürlich auch diverse Arzneistoffe, die gegen sie verstoßen, und trotzdem sehr gut funktionieren. Wie kann das sein?

Die offensichtliche Antwort auf diese Frage sind alternative Wege, die Schleimhäute des Verdauungstrakts zu überwinden. Denn schließlich ist der Verdauungstrakt dazu da, Nährstoffe aufzunehmen, und die halten sich auch nicht alle an die Rule of Five. Daher gibt es Transportproteine in den Zellmembranen, die die Aufnahme dieser Nährstoffe ermöglichen, und das können manche Arzneistoffe ausnutzen. Sie sind ebenfalls Substrate dieser Transporter und können daher resorbiert werden, ohne tatsächlich die Phospholipid-Doppelschicht der Zellmembran zu überwinden. Einige häufig benutzte Arzneistoffe sind gute Beispiele dafür: L-Dopa (bei Parkinson), Metformin (bei Diabetes) oder Simvastatin (zur Senkung des Cholesterinspiegels).

Außer der Aufnahme über Transportproteine gibt es auch noch die Möglichkeit, dass Arzneistoffe sich quasi zwischen zwei Zellen hindurch schleichen – das nennt man dann parazelluläre Resorption. So müssen sie die Membran auch nicht überwinden, allerdings ist das nur für kleine Moleküle möglich und auch nicht in allen Bereichen des Körpers.

Regelbrecher

In einem Paper von 2016 haben die Autor:innen die Resorption von Stoffen untersucht, die gegen die Rule of Five verstoßen. Dazu verwendeten sie ein Modellsystem aus Liposomen – im Prinzip kleine Kugeln aus einer oder mehreren Phospholipid-Membranen, ähnlich der Zellmembran – um die Permeation der Stoffe durch eine Membran zu betrachten. Und tatsächlich konnten die beiden Arzneistoffe Tetrazyklin und Rifampicin, die ziemlich heftig gegen die Rule of Five verstoßen, die Membranen überwinden (und zwar rein durch passive Diffusion und nicht durch andere Transportmechanismen).

Die Autor:innen haben einige Faktoren ausmachen können, wie solche „Regelbrecher“ trotzdem oral resorbiert werden können.

Struktur von Tetrazyklin

Tetrazyklin besitzt mehr Wasserstoffbrücken-Donatoren als „erlaubt“. Diese können aber intramolekulare Wasserstoffbrücken bilden, also mit Wasserstoffbrücken-Akzeptoren im gleichen Molekül. Damit sind diese abgesättigt und „zählen nicht mehr“ für die Membran-Permeation. Außerdem hat auch die Form eines Arzneistoffs einen Einfluss auf die Fähigkeit, Membranen überwinden zu können. Tetrazyklin ist lang und schmal und könnte daher mit weniger sterischer Hinderung durch eine Membran diffundieren können – das heißt, es braucht einfach weniger Platz und kann sich deshalb besser durch die dicht gepackte Membran bewegen.

Ein großes Thema ist auch die Ladung eines Arzneistoffes, über das ich bisher aber noch nicht geschrieben habe, daher werde ich es nur kurz anreißen. Ist ein Molekül geladen, ist es dadurch automatisch sehr viel weniger lipophil und kann Membranen deutlich schlechter überwinden. Wenn im selben Molekül aber eine positive und eine negative Ladung vorkommen – so wie bei Tetrazyklin bei physiologischem pH – gleichen diese sich aus. Dadurch ist das Molekül in Summe wieder ungeladen und kann durch die Membran gelangen.

Stoffe im drug-like space

Sind solche Moleküle also die Ausnahme, die die Regel bestätigen? Nicht ganz. Denn tatsächlich hätte die Rule of Five eine ordentliche Generalüberholung nötig. Auch wenn sie Pionierarbeit geleistet hat, physikochemische und klinische Eigenschaften von Arzneistoffen miteinander zu verknüpfen, könnte das strikte Beharren auf diese Regeln in Zukunft eher schaden als nutzen.

Michael D. Schultz hat in einem Artikel von 2018 einen genauen Blick auf das Vermächtnis der Rule of Five geworfen. Denn die Regeln wurden mit Blick auf die Arzneistoffe vor 1997 aufgestellt. Schultz schreibt:

 „A property that is truly related to the probability of achieving solubility and oral exposure must be static and not change faster than the evolution of the organism to which it is targeted. Any rule based on a time-dependent value cannot predict the future […].”

Und wenn man die Eigenschaften der Arzneistoffe betrachtet, die seit 1998 von der FDA – der US-amerikanischen Arzneimittelbehörde – zugelassen wurden, dann fallen tatsächlich einige Abweichungen von der Rule of Five auf.

Außer der Zahl an Wasserstoffbrücken-Donatoren haben sich alle anderen Eigenschaften im Vergleich zu der Zeit vor 1997 statistisch signifikant verändert. Besonders dramatisch ist diese Veränderung bei der Molekülmasse. Seit 1998 wurden deutlich mehr Arzneistoffe zugelassen als in dem gleichen Zeitraum zuvor, und dieser Anstieg ist zu einem großen Teil auf Arzneistoffe mit einer relativen Molekülmasse über 500 zurückzuführen. 2016 und 2017 war die durchschnittliche Molekülmasse der zugelassenen Arzneistoffe sogar größer als 500, der Grenze der Rule of Five.

Von der FDA zugelassene Arzneistoffe nach Zeitraum. Stoffe mit einer Molekülmasse unter 500 sind blau und über 500 sind rot (Bild: Schultz, 2018, 10.1021/acs.jmedchem.8b00686

Die Rule of Five, und besonders der Grenzwert für die Molekülmasse, konnte also die zukünftige Entwicklung von Arzneistoffen nicht vorhersagen.

Welche Konsequenzen könnte das haben? Nun, dafür müssen wir kurz über den drug-like space sprechen. Stellt euch einen Raum vor, der angefüllt ist mit allen möglichen Molekülen, die existieren können. Um neue (oral anwendbare) Arzneistoffe zu finden, muss dieser Raum, der chemical space abgesucht werden. Der chemical space ist aber viel zu groß, deshalb muss die Auswahl irgendwie eingeengt werden, auf Moleküle, die mit einer einigermaßen hohen Wahrscheinlichkeit oral bioverfügbar sein könnten. Das kann man dann als drug-like space bezeichnen (tatsächlich steht aber Schultz beispielsweise dem Begriff drug-like eher skeptisch gegenüber).

Wenn jetzt die Rule of Five maßgeblich ist um festzustellen, welche Stoffe in diesem drug-like space liegen, und die Rule of Five diese Eigenschaft aber zumindest nicht zuverlässig vorhersagen kann, dann bleiben möglicherweise viele potentielle Arzneistoffe unbeachtet. Gerade in einer Zeit, in der auch viele neue Arten von Arzneistoffen in den Vordergrund rücken, könnte es daher eher schädlich sein, zu sehr auf die Rule of Five zu beharren.

Wenn euch dieser Text gefallen hat, dann abonniert doch gerne meinen Email-Newsletter, um keine neuen Blogbeiträge mehr zu verpassen. Und wenn ihr tiefer in das Thema Rule of Five einsteigen wollt, dann lest doch am besten das verlinkte Paper von Michael Schultz.

Nobelpreis Spezial: Chemie 2023

Die Preisträger des Nobelpreises für Chemie 2023 wurden bekannt gegeben – durch einen Leak tatsächlich einige Stunden zu früh – und der Preis geht dieses Jahr an Alexei Ekimov, Louis Brus und Moungi Bawendi. Ausgezeichnet werden die für „die Entdeckung und Synthese von Quantum Dots“.

Die Preisträger und ihre Teams haben zum ersten mal (bewusst) ein Material hergestellt, dessen Eigenschaften durch Quanteneffekte bestimmt werden. Mir ist bewusst, das sich das ganz schön kompliziert anhört und auch ich dachte erstmal, dass dieser Beitrag eine ganz schöne Herausforderung wird. Aber zumindest wenn wir uns einfach anschauen, was die Preisträger gemacht haben und was das für die Wissenschaft und unseren Alltag bedeutet, sind die Quantum Dots tatsächlich sehr spannend und gar nicht so schwer zu verstehen.

Wenn ihr allerdings tiefer in das Thema einsteigen wollt, möchte ich euch direkt die Advanced Information auf der Webseite des Nobelpreises empfehlen. Dort könnt ihr ausführlichere und sehr schön aufbereitete Hintergrundinfos finden.

Nanokristalle in farbigem Glas

Die Geschichte dieses Nobelpreises beginnt mit farbigem Glas. Farbiges Glas wird schon lange durch die Zugabe verschiedenster Stoffe hergestellt, zum Beispiel Gold oder Cadmium. Die zugesetzten Stoffe formen Kolloide im Glas. Das heißt hier, dass sie sehr kleine, fein verteilte Partikel bilden, mit dem Glas als sogenanntes Dispersionsmedium.

Alexei Ekimov wollte herausfinden, wie diese kolloidalen Zusatzstoffe die optischen Eigenschaften des Glases verändern. Dazu stellt er Glas her, in dem sich winzig kleine Kupfer(I)-chlorid- (CuCl-)Kristalle bildeten. Interessanterweise änderte sich die Absorption dieses Glases je nachdem, wie groß die CuCl-Partikel waren. (Absorption ist die Aufnahme von Lichtenergie. Der absorbierte Teil des Lichts ist also der Teil, der nicht durchgelassen oder reflektiert wird.)

Ekimov konnte nachweisen, dass sich die Größe der Partikel im Nanometer-Bereich (1 nm ist ein Milliardstel eines Meters) befand, und dass sie damit so klein waren, dass die Änderung der Absorption von Licht durch Quanteneffekte verursacht wurde.

Wieso ist das so wichtig? Nun, typischerweise werden sowohl die optischen als auch die chemischen Eigenschaften eines Materials durch dessen Elektronenstruktur bestimmt, also wie viele Elektronen es hat und welche Energiezustände ihnen zur Verfügung stehen. Schon länger existieren theoretische Überlegungen, dass sich das ändert, sobald die Teilchen eines Materials nur klein genug sind. Dann verfügen sie nicht mehr über die Eigenschaften des Bulk-Materials, die durch die Elektronenstruktur bestimmt sind, sondern besitzen durch Quanteneffekte neue Eigenschaften. Ekimov ist es also gelungen, ein solches Material erstmals experimentell nachzuweisen.

Quantum Dots auch ohne Glas

Allerdings sind Nanopartikel in Glas nicht sonderlich praktisch, wenn man weiter mit ihnen arbeiten möchte. Hier kommt jetzt Louis Brus ins Spiel (ohne dass er von den Erkenntnissen Ekimovs wusste).

Brus und seine Kolleg:innen konnten kolloidale Cadmiumsulphid- (CdS-)Nanopartikel in einem flüssigen Dispersionsmittel herstellen. Die frischen Nanopartikel waren nur wenige Nanometer groß, mit der Zeit entstanden durch Ostwald-Reifung jedoch immer größere Partikel. Als Ostwald-Reifung wird das Phänomen bezeichnet, dass im Laufe der Zeit größere Nano- und Mikropartikel auf Kosten von kleineren Partikeln wachsen, und die kleineren dadurch nach und nach verschwinden (tatsächlich ist Ostwald-Reifung auch in der Pharmazeutischen Technologie ziemlich relevant).

Auch Brus konnte dann beobachten, dass die frischen, kleinen Nanopartikel andere optische Eigenschaften hatten als die „gereiften“ größeren. Das liegt daran, dass in einem Halbleiter wie CdS die Bandlücke der Nanopartikel – wenn sie klein genug sind – von der Größe der Nanopartikel abhängt.

Die Bandlücke ist abhängig von der Größe der Quantum Dots (Bild: The Royal Swedish Academy of Sciences / Dong et al. 2015)

Die Bandlücke steht für die Energie zwischen dem Valenzband und dem Leitungsband, den beiden Energiebereichen, in denen sich Elektronen aufhalten können. Wenn ein Halbleiter angeregt wird, z.B. durch Licht, gehen Elektronen aus dem energieärmeren Valenzband in das energiereichere Leitungsband über. Von der Größe dieser Bandlücke hängt dann ab, welche Wellenlängen des Lichts bei der Anregung absorbiert werden. Je kleiner ein entsprechendes Nanopartikel, ein Quantum Dot, wird, desto größer wird die Bandlücke und desto kurzwelligeres Licht wird benötigt, um Elektronen anzuregen. Das absorbierte (und auch wieder emittierte) Licht wird also immer blauer.

(Bild: Johan Jarnestad/The Royal Swedish Academy of Sciences)

Zuverlässige Herstellung

Leider waren die Herstellungsmethoden für Quantum Dots noch sehr kompliziert und vor allem unzuverlässig. Moungi Bawendi entwickelte mit seinem Team eine Methode, mit der die benötigten Nanopartikel relativ einfach, zuverlässig und mit einer hohen Qualität hergestellt werden konnten. Dazu werden die Ausgangsstoffe für die Nanopartikel in ein heißes Lösungsmittel gegeben, wo sofort kleine Kristalle entstehen. Da dieses Kristallwachstum aber Wärme benötigt, und die Zugabe der Ausgangsstoffe das Lösungsmittel abkühlt, hören die Kristalle auch sehr schnell wieder auf zu wachsen. Wird das System dann wieder erhitzt, beginnen die Kristalle wieder zu wachsen, und über das kontrollierte Erhitzen kann die Größe der entstehenden Partikel bestimmt werden. Dieses Verfahren hat die breite Verwendung von Quantum Dots erst ermöglicht.

Herstellung von Quantum Dots (Bild: Johan Jarnestad/The Royal Swedish Academy of Sciences)

Aber wofür werden sie überhaupt verwendet? Beispielsweise in Bildschirmen, wo die Eigenschaft der Quantum Dots ausgenutzt wird, dass sie nach Anregung und Absorption von blauem Licht wieder Licht mit einer längeren Wellenlänge (d.h. röteres Licht) aussenden. Aber auch in Photovoltaik-Technologien kommen die Quantum Dots zum Einsatz. Außerdem lassen sich mit ihrer Hilfe sowohl Moleküle innerhalb von Zellen und Organen verfolgen als auch Tumorgewebe innerhalb eines Körpers, was biologische und medizinische Anwendungen ermöglicht.

Das war es jetzt von mir zum Chemie-Nobelpreis 2023. Wie gesagt kann ich euch für mehr Informationen auf jeden Fall die Advanced Information der Nobelpreis-Website ans Herz legen. Und wenn ihr meinen Text über den ebenfalls sehr spannenden Medizin-Nobelpreis 2023 lesen wollt, findet ihr ihn hier.

Falls euch der Beitrag gefallen hat und ihr keinen weiteren verpassen wollt, dann abonniert doch gerne meinen Newsletter!

Gratulation an Alexei Ekimov, Louis Brus und Moungi Bawendi!

Wirkstoffe mit neuem Wirkprinzip: PROTACs

Viele Arzneistoffe funktionieren nach dem gleichen Prinzip. Der Wirkstoff bindet an ein Enzym und hemmt es. Zum Beispiel Ibuprofen, das an das Enzym COX bindet und seine Funktion hemmt. Denn COX produziert normalerweise entzündungsfördernde Stoffe, was durch Ibuprofen dann verhindert wird. Das ist ein lang erprobtes und sehr erfolgreiches Prinzip. Aber es hat auch Schwächen und Limitation, und um die zu überwinden, braucht es Arzneistoffe, die nach einem neuen Prinzip funktionieren. 2001 wurde eine solche Gruppe von Arzneistoffen entdeckt, die seither in der Arzneistoffentwicklung immer beliebter wird: die PROTACs.

In diesem Text geht es um diese neue Gruppe von Arzneistoffen. Darum, was PROTACs so anders macht, was sie besser können als andere Stoffe, und welche Probleme vielleicht noch überwunden werden müssen.

Was sind PROTACs?

PROTAC steht für PROteolysis Targeting Chimera, und in diesem Namen steckt schon sehr viel von dem was PROTACs tun: Proteolyse bezeichnet den Abbau von Proteinen. Es gibt viele unterschiedliche Gründe, weshalb Proteine in einer Zelle abgebaut werden sollten. Daher ist es auch nicht überraschend, dass es dafür eine eigene Maschinerie in der Zelle gibt, das Proteasom. Aber woher weiß das Proteasom, welche Proteine nicht mehr gebraucht werden? Die Proteine, die im Proteasom abgebaut werden sollen, sind dafür mit Ubiquitin markiert, dem Signal zum Abbau.

Struktur des menschlichen 20S Proteasoms (Toste Rego et.al., Mol Cell, 2019)

Durch die Ubiquitinierung (die Verknüpfung eines Protein mit Ubiquitin) weiß das Proteasom also, dass eben dieses ubiquitinierte Protein abgebaut werden soll. Aber wie kommt das Ubiquitin an dieses Protein? Das geschieht nicht einfach so, sondern durch Enzyme: E1, E2 und E3 (und ja, wie die meisten Enzyme haben die eigentlich längere und kompliziertere Namen, aber das soll uns jetzt egal sein).

Genau an dieser Stelle setzen die PROTACs an: Denn sie sorgen dafür, dass ein bestimmtes Protein durch diese Enzyme ubiquitiniert und damit für den Abbau markiert wird. Wenn wir das mit „normalen“ Arzneistoffen vergleichen, wird der unterschied sehr deutlich: Ein „normaler“ Arzneistoff hemmt ein Enzym oder einen Rezeptor, das oder der dann nicht mehr richtig arbeiten kann. Ein PROTAC sorgt nicht dafür, dass sein Zielprotein (sein Target) nicht mehr richtig funktioniert, sondern stattdessen direkt komplett abgebaut wird und deshalb seine Funktion nicht mehr erfüllen kann.

Bevor wir uns anschauen, was das für Vorteile hat und wieso PROTACs gerade so beliebt sind, müssen wir aber erst einmal verstehen, wie sie funktionieren. Und dafür müssen wir uns genauer mit ihrer Chemie beschäftigen.

Die Chemie der PROTACs

PROTACs bestehen aus drei Teilen: Einem Teil, der an das Zielprotein bindet, einem Teil, der an das E3-Enzym bindet, und einem Linker, der die beiden anderen Teile miteinander verbindet. Sie sind also bifunktional, weil sie an zwei Proteine gleichzeitig binden können.

Für die Interaktion mit E3 gibt es natürlich verschiedene Möglichkeiten. Zum Beispiel kann der E3 Ligand entweder ein Peptid sein (also aus Aminosäuren aufgebaut) oder auch ein small molecule. Und auch die Wahl des richtigen Linkers ist nicht so einfach. Wie lang muss der Linker sein? Wie flexibel muss er sein? Wo muss er an den anderen Teilen befestigt sein? Und wie stört er die Bindung an das Target und an E3 nicht? Letztendlich gilt es dann noch, den richtigen Liganden für das Zielprotein auszuwählen. Wir schauen uns das mal am Beispiel des Stoffes SK-575 an:

SK-575 sorgt für den Abbau des Enzyms PARP1, das DNA-Brüche repariert und dessen Hemmung in der Krebstherapie ausgenutzt wird. Der PARP1-bindende Teil ist Olaparib, ein Stoff, der auch allein PARP1 hemmen kann und deshalb vorher schon als Arzneistoff verwendet wurde. Der Linker ist dann eine ziemliche unpolare Alkylkette (fast nur Kohlenstoff und Wasserstoff), an dem die beiden anderen Teile über zwei Amide befestigt sind. Der E3-bindende Teil von SK-575 ist Thalidomid, das bereits als Wirkstoff z.B. bei Lepra verwendet wird. Aber der eine oder die andere wird jetzt wohl aufhorchen. Denn Thalidomid ist der Wirkstoff in Contergan, das in den 50er und 60er Jahren den Contergan-Skandal ausgelöst hat.

Struktur von SK-575 (Cao et al., Chem. Soc. Rev. 2022)

Thalidomid wurde bis in die 60er Jahre in dem Schlafmittel Contergan verwendet, das hauptsächlich an Schwangere vermarktet wurde. Leider löste es bei den ungeborenen Kinder schwere Fehlbildungen aus. Es bindet nämlich an eine Untereinheit von E3, wodurch der Abbau von bestimmten Proteinen verhindert und die Entwicklung der Gliedmaßen gestört wird.

Aber eben genau diese Eigenschaft, an E3 binden zu können, macht Thalidomid für die PROTACs so interessant. Es macht es möglich, PROTACs herzustellen, die sehr effizient an E3 binden und gleichzeitig viele andere Eigenschaften aufweisen, die ein Arzneistoff haben muss (z.B. dass die PROTACs überhaupt in die Zellen gelangen können). Selbstverständlich erfolgt der arzneiliche Einsatz von Thalidomid (und der anderen IMiDs Lenalidomid und Pomalidomid) heutzutage unter strenger ärztlicher Überwachung und niemals bei Schwangeren.

Die Wirkungsweise der PROTACs

Wir wissen jetzt, dass PROTACs bifunktional sind und gleichzeitig das Zielprotein und E3 binden können. Das Gebilde aus Target, E3 und PROTAC wird als ternärer Komplex bezeichnet. In dem ternären Komplex sind sich das E3-Enzym und das Target nahe genug, damit E3 (zusammen mit E2) seine Arbeit machen kann: es ubiquitiniert das Zielprotein und markiert es dadurch für den Abbau durch das Proteasom.

Das Schicksal des Zielproteins ist also besiegelt. Die Peptidbindungen zwischen seinen Aminosäuren werden gespalten und das Protein wird zerstört. Die dabei freiwerdenden Aminosäuren und Peptidfragmente können dann zum Beispiel verwendet werden, um neue Proteine aufzubauen.

Der PROTAC und E3 werden allerdings nicht mit abgebaut. Sie dissoziieren wieder ab, werden also freigesetzt, und können sich dem nächsten Zielprotein widmen. Dort kann der PROTAC wieder binden, E3 rekrutieren und der ganze Prozess geht wieder von vorne los.

Mit der Zeit wird dadurch ein ziemlich großer Teil aller Zielproteine in der Zelle abgebaut. Das hat auf den ersten Blick betrachtet den gleichen Effekt wie ein klassischer Hemmstoff: Das Zielprotein kann sine Arbeit nicht mehr machen. Wenn wir beim Beispiel SK-575 und Olaparib bleiben, dann kann das Target PARP1 keine DNA-Brüche mehr reparieren, und die Krebszelle stirbt.

Aber auf den zweiten Blick gibt es einige wichtige Unterschiede zwischen den PROTACs und klassischen Hemmstoffen, die wir uns jetzt anschauen.

Was haben PROTACs, was die anderen nicht haben?

Einen entscheidenden Vorteil habe ich zumindest schon angerissen. Denn da PROTACs nach dem Abbau des Targets wieder freigesetzt werden, ist ihr Wirkmechanismus katalytisch. Das bedeutet, dass nicht ein Molekül Arzneistoff für jedes einzelne Zielprotein gebraucht wird, sondern dass ein PROTAC-Molekül potentiell unendlich (potentiell heißt hier, in der Realität natürlich nicht unendlich, aber zumindest viele) Zielproteine in den Abbau führen kann. Dadurch braucht man eine sehr geringe Konzentration an Arzneistoff, um einen Effekt zu erzielen. Das ist besonders praktisch, wenn dadurch die Dosis eines Arzneistoffs mit starken Nebenwirkungen verringert werden kann, oder bei Stoffen, die ansonsten zu giftig wären, um sie einsetzen zu können.

Ein weiterer, sehr großer Vorteil ist, dass es bei PROTACs egal ist, wo sie an ihr Target binden. Denn klassische Hemmstoffe haben da keine Wahl, es gibt an ihren Zielproteinen nur eine oder wenige Stellen, die sie binden können, um die Aktivität des Zielproteins zu verändern – entweder das aktive Zentrum oder eine allosterische Bindestelle. Weil PROTACs die Funktion ihres Zielproteins nicht direkt beeinflussen müssen, können sie auch buchstäblich überall daran binden. Das führt auch dazu, dass sogenannte undruggable targets adressiert werden können, die zum Beispiel gar kein aktives Zentrum haben.

Und dann gibt es noch ein paar weitere Beispiele. So können klassische Hemmstoffe auch oft wieder aus der Bindung mit dem Zielprotein verdrängt werden, wenn der endogene Ligand bindet (Stichwort kompetitive Hemmung). Bei PROTACs kann das natürlich nicht passieren, denn wenn das das Zielprotein einmal abgebaut ist, ist es halt weg. Und auch die Entwicklung von Resistenzen gegen einen Arzneistoff könnte bei PROTACs unter Umständen langsamer ablaufen.

Und wo ist der Haken?

Ich muss zugeben, dass „wo ist der Haken?“ eine ziemlich provokante Frage ist. Denn PROTACs sind ein sehr vielversprechender Ansatz in der Arzneistoffentwicklung, und es gibt (noch, zumindest) keinen wirklichen Haken dabei. Aber es gibt eben auch einige Nachteile und offene Fragen, die ich euch nicht verschweigen möchte.

Ein Problem könnte sein, dass das Zielprotein zwar abgebaut wird, sich der gewünschte Effekt aber trotzdem nicht einstellt. Es kommt nämlich vor, dass die Funktion des Zielproteins dann einfach von einem anderen Protein übernommen wird, und der PROTAC damit praktisch unwirksam wird (zumindest teilweise). Dazu kommt noch, dass extrem viele verschiedene Formen des E3-Enzyms existieren, aber die meisten PROTACs nur auf ein paar wenige beschränkt sind. Eine Herausforderung für die Entwicklung neuer Stoffe ist also, auch diese E3-Formen als Ansatzpunkt für PROTACs zu gewinnen. Außerdem sind PROTACs oft sehr groß (also in molekularem Maßstab) und häufig relativ instabil oder reaktiv. Das macht es zu einer Herausforderung, dass sie nach peroraler Einnahme auch im Blutkreislauf und dann am Wirkort ankommen.

Oder, wie dieser Preprint zeigt, kann der Abbau bestimmter Proteine auch unerwartete Effekte haben (Derek Lowe hat auch einen sehr guten Text darüber geschrieben). Denn beim Abbau entstehen Peptide, die wiederum die Apoptose, also den programmierten Zelltod, auslösen. Das kann von Vorteil sein, z.B. bei der Krebsbehandlung, wenn sowieso das Ziel ist, dass Tumorzellen absterben. Wenn die Zellen aber nicht sterben sollen, kann das ein ziemliches Problem darstellen.

Die Zukunft von PROTACs in der Arzneistoffentwicklung

So, wir haben jetzt eine ganze Menge über PROTACs gelernt. Da stellt sich die Frage, wie relevant sie weiterhin in der Arzneistoffentwicklung, und letztendlich auch im klinischen Alltag sein werden.

Ich bin nicht in der Arzneistoffentwicklung tätig und habe daher auch eher einen beschränkten Überblick über das Feld. Aber in den letzten Jahren ist die Zahl der Veröffentlichungen über PROTACs deutlich angestiegen, und ich denke, dass sich das Interesse an ihnen auch noch lange anhalten wird.

Natürlich werden auch die traditionellen Hemmstoffe weiter ihren Platz in der Arzneistoff-Landschaft haben, aber das PROTAC-Prinzip scheint gut geeignet, um einige ihrer Limitationen zu überwinden. Ich denke daher, dass wir bald schon PROTACs auch in der klinischen Anwendung sehen werden.

Wenn ihr euch mehr einlesen wollt, kann ich dieses Review von 2022 empfehlen, und außerdem dieses wirklich sehr ausführliche Review, auf die ich auch diesen Text hauptsächlich gestützt habe.

Wenn euch dieser Beitrag gefallen hat, dann abonniert doch gerne auch meinen Newsletter, damit ihr nichts mehr verpasst (am Desktop direkt auf der rechten Seite und am Handy ganz unten in der Fußzeile). Oder schaut doch auch mal in meinen letzten Text über Ribosomen rein.

Nobelpreis-Spezial: Chemie 2022

Der Chemie-Nobelpreis geht 2022 an K. Barry Sharpless, Morten Meldal und Carolyn Bertozzi, die jeweils ein Drittel des Preises erhalten. Sie werden ausgezeichnet für: „the development of click chemistry and bioorthoganol chemistry“.

Sharpless hat übrigens 2001 schon einmal einen Nobelpreis in Chemie erhalten. Den Preis damals erhielt er für die Entwicklung von stereoselektiven Reaktionen, die wie z.B. die Sharpless-Epoxidierung auch seinen Namen tragen.

Aber hier geht es ja nicht um den Nobelpreis von 2001, sondern um den von 2022. Und damit das ganze einen roten Faden hat, müssen wir bei der click chemistry anfangen und uns dann zur bioorthogonalen Chemie vorarbeiten.

Click-Chemie

Das Konzept, das der Click-Chemie zugrunde liegt, ist im Prinzip ziemlich einfach: man möchte gerne Moleküle so simpel wie möglich zusammenbauen können, wie durch aneinanderstecken von Legosteinen beispielsweise. Spannend wird es, wenn wir uns fragen, wieso. Denn einfach zusammen zu bauende Moleküle ermöglichen es, sehr schnell und einfach sehr viele Stoffe mit unterschiedlichsten Eigenschaften zu erzeugen. Die Substanz-Bibliotheken, die dabei entstehen, sind oft die Grundlage für die Entwicklung neuer Arzneistoffe (na sieh an, endlich mal wieder ein Blogbeitrag mit direktem Bezug zur Pharmazie). Dieses Konzept, durch einfaches Zusammenfügen von Molekülbausteinen eine große Vielfalt an Substanzen herzustellen, nennt man kombinatorische Chemie. Dieses Konzept gibt es auch schon seit einigen Jahrzehnten, aber lange haben die Methoden zum Zusammenfügen der Bausteine gefehlt. Und genau hier kommt die Click-Chemie ins Spiel.

Es gibt eine ganze Reihe an Bedingungen, die eine Reaktion erfüllen muss, um eine gute Click-Reaktion zu sein. Unter anderem sind das: die Reaktion muss ein vielfältiges Anwendungsgebiet haben, sie darf keine komplizierten Reaktionsbedingungen benötigen, sie muss hohe Ausbeuten liefern, sie sollte am besten in Wasser ablaufen können (was viele Reaktionen in der organischen Chemie nicht tun), sie sollte am besten keine Nebenprodukte haben und sie sollte schnell ablaufen. Das sind eine ganze Menge Bedingungen, und dementsprechend schwierig ist es, Reaktionen zu finden, die sie alle erfüllen. Trotzdem ist Sharpless und Meldals Gruppen genau das unabhängig voneinander gelungen.

Die Reaktion, die von den beiden Arbeitsgruppen als erste richtige Click-Reaktion gefunden wurde, ist die 1,3-dipolare Cycloaddition mit Aziden. Was sich erstmal relativ kompliziert anhört, lässt sich aber trotzdem in ein paar Sätzen zusammenfassen. Azide sind eine funktionell Gruppe bestehend aus drei Stickstoffatomen hintereinander. Dabei ist immer eines dieser Stickstoffatome positiv geladen und ein anderes negativ, die funktionelle Gruppe besitzt also einen Dipol. Und Azide können durch diesen Dipol mit Alkenen (zwei Kohlenstoffe durch eine Doppelbindung verbunden) und Alkinen (zwei Kohlenstoffe durch eine Dreifachbindung verbunden) reagieren. Dabei formen sie eine ringförmige Verbindung aus den drei Stickstoff- und den zwei Kohlenstoffatomen. Daher wird diese Art von Reaktion auch als 3+2-Cycloaddition bezeichnet.

Die Cycloaddition mit Aziden an sich eignet sich aber noch nicht unbedingt für die Click-Chemie. Erst eine weitere Entdeckung machte die Reaktion so universell einsetzbar: Die Reaktion kann durch Kupfer katalysiert werden. Die Katalyse sorgt dafür, dass die Reaktion deutlich schneller abläuft, und auch Ausgangverbindungen verwendet werden können, die ohne Katalysator nicht geeignet wären. Durch das Kupfer wurde die 1,3-dipolare Cycloaddition zu einer echten Click-Reaktion, mit der einfach, schnell und mit hoher Ausbeute verschiedenste Molekülfragmente zusammengebaut werden können. Wegen dieser Vielseitigkeit wird die Reaktion auch entsprechend oft eingesetzt; für die Arzneistoffentwicklung, wie ich es weiter oben beschrieben habe, aber natürlich auch in vielen weiteren Anwendungsfeldern.

Bioorthogonale Chemie

Carolyn Bertozzi erhält den Preis für die Anwendung von Click-Chemie als bioorthogonale Reaktion (ein Begriff, der damals übrigens noch nicht existierte und den Bertozzi entscheidend prägte).

Bioorthogonale Reaktionen sind Reaktionen, die so selektiv für die beteiligten Substanzen sind, dass sie sogar in Zellen störungsfrei ablaufen können. Das ist deshalb besonders, weil Zellen extrem vollgepackt sind mit mehr oder weniger reaktiven Molekülen, die zu ungewollten Nebenreaktionen führen können.

Um die Cycloaddition mit Azid in lebenden Systemen benutzen zu können, musste allerdings ein Problem überwunden werden: Kupfer ist ein Schwermetall und damit giftig. Das ist ein ziemlich großes Problem, da es ja gerade der Kupfer-Katalysator ist, der die Reaktion schnell genug ablaufen lässt. Bertozzi und Kollegen haben aber eine Lösung gefunden. Es gibt nämlich Ausgangsstoffe mit speziellen Eigenschaften, bei deren Verwendung die Reaktion auch ohne Katalysator genauso schnell ist.

Wenn man die Azidgruppe mit sogenannten cyclischen Alkinen reagieren lässt, benötigt man kein Kupfer als Katalysator. Cyclische Alkine sind einfach ringförmige Moleküle, die eine Dreifachbindung beinhalten. Und weil sich Dreifachbindungen ungern zu einem Ring biegen lassen, haben diese Moleküle sehr viel Energie, wodurch sie wiederum deutlich reaktiver sind als einfache Alkine. Daher lassen sie sich auch ohne Katalysator einsetzen.

Wozu Bertozzi und ihre Gruppe Click-Reaktion zwischen Azid und cyclischen Alkinen eingesetzt haben, finde ich persönlich extrem spannend. Viele Zellen besitzen um ihre Membran eine Schicht von Polysacchariden, also Zuckermolekülen, die Glykokalyx genannt wird. Die Glykokalyx hat einige wichtige Eigenschaften für die Zellen (z.B. bestimmt die Glykokalyx von Erythrozyten unsere Blutgruppe) und Berrtozzis Gruppe wollte diese Polysaccharidschicht untersuchen. Dafür brachten sie Zellen dazu, in diese Polysaccharide modifizierte Zuckermoleküle einzubauen, die eine Azidgruppe enthalten. Das Azid konnten sie dann wiederum mit einem cyclischen Alkin reagieren lassen, und an das cyclische Alkin konnten sie ein drittes, fluoreszierendes Molekül binden (für die, die es wissen wollen: es handelte sich um ein biotinyliertes cyclisches Alkin und Fluoreszenz-gelabeltes Avidin). Das ermöglichte schließlich einen direkten Zusammenhang zwischen Zuckermolekül und Fluoreszenz. Fluoreszenz-basierte Methoden sind sehr wichtig in der Biochemie, denn es lassen sich mit ihrer Hilfe eine ganze Reihe unterschiedlicher Messungen durchführen. Am Eindrucksvollsten ist aber die Fluoreszenzmikroskopie, mit der Dinge sichtbar gemacht werden können, die ansonsten nicht sichtbar sind. Und dank der bioorthogonalen Chemie gehören Polysaccharide an der Oberfläche von Zellen ebenfalls zu diesen Dingen.

Bertozzi und ihre Gruppe waren außerdem in der Lage, diese Methode nicht nur in der Zellkultur anzuwenden, sondern auch in lebenden Mäusen. Dazu brachten sie auch die Mäuse dazu, modifizierte Zucker an den Zelloberflächen einzubauen. Diese Zellen entnahmen sie dann und färbten sie ex vivo mittels Click-Reaktion und fluoreszierendem Farbstoff.

Die Reaktion zwischen Azid und Alkinen war nicht die einzige, die in Bertozzis Gruppe eingesetzt wurde, wohl aber eine der erfolgreichsten. Und da wir gerade bei anderen Reaktionen sind: Es gibt inzwischen eine wirkliche Fülle an bioorthogonalen Reaktionen, die zu einem Standardwerkzeug in der Biochemie (und vielen anderen Gebieten) geworden sind. Zum Beispiel wird auch in dem Labor, in dem ich arbeite, bioorthogonale Chemie eingesetzt.

Und wie schon bei meinem Beitrag zum Medizin-Nobelpreis gilt: wenn ihr mehr wissen wollt, seht euch am besten die Popular Information oder Advanced information auf der Website des Nobelpreises an.

© 2024 PharmBlog

Theme by Anders NorenUp ↑

WordPress Cookie Notice by Real Cookie Banner