Ein Blog über die Wissenschaft hinter Arzneimitteln

Category: Pharmakologie (Page 1 of 2)

Wie gut wirkt eine Behandlung – Klinische Studien verstehen, Teil 2

Nachdem wir im ersten Teil dieses Texts die Grundlagen zur Interpretation klinischer Studien wie Kontrollgruppen, Randomisierung und Verblindung abgedeckt haben, gehen wir heute einen Schritt weiter. Wir tauchen tiefer in die Bedeutung des Patientenkollektivs und die Rolle von Endpunkten ein. Warum ist es wichtig, wer an einer Studie teilnimmt? Wie beeinflussen dropouts die Aussagekraft der Ergebnisse? Und was genau sind klinische und Surrogatendpunkte?

In diesem Teil schauen wir uns an, wie man den Behandlungserfolg misst und warum das oft komplizierter ist, als es auf den ersten Blick scheint. Wir nehmen wieder die Beispielstudie „Nilotinib vs. Imatinib“ unter die Lupe und lernen dabei, worauf man achten sollte, um die Ergebnisse einer Studie korrekt einzuordnen. Am Ende dieses kleinen Leitfadens werdet ihr hoffentlich noch besser gerüstet sein, um klinische Studien kritisch und fundiert zu bewerten.

Das Patientenkollektiv und wer davon übrig bliebt

Bevor wir uns ansehen, wie der Behandlungserfolg überhaupt gemessen wird, müssen wir uns erst nochmal auf das Patientenkollektiv konzentrieren. Denn welche Teilnehmer:innen für eine Studie ausgewählt wurden hat einen großen Einfluss auf ihre Aussage.

Wie alt sind die Patient:innen, welches Geschlecht haben sie, wie weit ist ihre Erkrankung fortgeschritten, wurden sie vorher schon (unerfolgreich) behandelt, haben sie noch andere Erkrankungen? All das sind Fragen, die man stellen sollte, vor allem wenn man die Ergebnisse der Studie auf andere Patient:innen übertragen oder verallgemeinern möchte.

Außerdem lohnt es sich anzuschauen, wie viele Teilnehmer:innen bis zum Ende an der Studie teilgenommen haben. In den meisten Studien gibt es dropouts, Patient:innen, die aus welchem Grund auch immer nicht länger Teil der Studie sind. Das kann daran liegen, dass sie sich nicht an das Behandlungsschema gehalten haben und ausgeschlossen wurden, sie können zu starke Nebenwirkungen haben, sie können eine weitere Erkrankung bekommen haben, aufgrund derer sie ausgeschlossen werden mussten, oder sie können schlicht und ergreifend verstorben sein.

Wenn am Ende nur der Behandlungserfolg der Teilnehmer:innen ausgewertet wird, die bis zum Ende dabei waren, dann ignoriert das einen Teil der medizinischen Realität. Es halten sich nämlich auch „echte“ Patient:innen nicht an Behandlungspläne oder brechen eine Behandlung ab, wenn die Nebenwirkungen zu stark werden. Werden diese Fälle nicht berücksichtigt, wird wieder einmal der Behandlungserfolg überschätzt. Daher sollten Studien idealerweise eine intention-to-treat Analyse haben, bei der die Auswertung anhand aller Patient:innen erfolgt.

Unsere Beispielstudie „Nilotinib vs. Imatinib“ umfasst ursprünglich 846 Teilnehmer:innen, von denen 10 gar nicht erst behandelt wurden. Von den 836 behandelten Patient:innen haben 156 die Studie abgebrochen, meistens wegen starker Nebenwirkungen. Aber auch weil die Behandlung nicht angeschlagen hat oder die Teilnehmer:innen ihre Zustimmung widerufen haben. In der Analyse der Ergebnisse wurden zwar die 10 nicht behandelten Patient:innen nicht mit eingeschlossen, aber immerhin alle, die die Behandlung frühzeitig beendet haben.

Intention-to-treat Population von “Nilotinib vs. Imatinib”

Kurz zusammengefasst: Gerade um abschätzen zu können, für welche Menschen eine Behandlung vorteilhaft ist, lohnt sich ein Blick in das Patientenkollektiv der Studie. Und wenn man schonmal dabei ist, sollte man auch nachsehen, wie viele dropouts es gab und wie damit umgegangen wurde.

Die Bedeutung von Endpunkten bei klinischen Studien

Wenn eine klinische Studie durchgeführt wird, dann soll damit in der Regel ja gezeigt werden, wie gut die untersuchte Behandlung funktioniert. Dazu muss etwas gemessen werden, das belegt, ob die Behandlung erfolgreich war, und dieses etwas bezeichnet man als Endpunkt.

Letztendlich geht es bei den meisten Arzneimitteln darum, dass die Patient:innen durch ihre Anwendung wieder gesund werden, sich ihr Zustand nicht oder langsamer verschlechtert, sich ihr Befinden bessert usw. – das ist es, was die Patient:innen interessiert. Solche Kategorien können aber ganz schön schwierig zu messen sein, weshalb meist besser definierbare Endpunkte verwendet werden. Die vollständige Remission, also das komplette Verschwinden z.B. einer Krebserkrankung wäre ein Beispiel dafür. Ein ähnliches Beispiel ist das progressionsfreie Überleben, also Überleben ohne eine Verschlimmerung der Erkrankung. Diese beiden Endpunkte sind sogenannte klinische Endpunkte. Sie sind direkt an den Verlauf der Erkrankung geknüpft und für Patient:innen so erlebbar.

Im Gegensatz zu den klinischen Endpunkten stehen die Surrogatendpunkte. Sie sind nicht direkt für Patient:innen spürbar und dienen als Ersatz – als Surrogat – für klinische Endpunkte. Meistens sind das Biomarker, die nur mittelbar mit dem Verlauf der Erkrankung verknüpft sind. Ein solcher Biomarker ist beispielsweise das C-reaktive Protein, das bei Entzündungen in den Blutkreislauf abgegeben wird. Seine Konzentration korreliert also mit der Stärke der Entzündung und es dient deshalb als Entzündungsmarker.

Bei „Nilotinib vs. Imatinib“ wurden auch Biomarker als Surratendpunkte verwendet. Der primäre Endpunkt für die Wirksamkeit – der Endpunkt, der allein über die Wirksamkeit entscheidet – war die major molecular response nach zwölf Monaten. Im Prinzip ist das nichts anderes als eine knackige Bezeichnung für „Laborparameter, die das Anschlagen der Behandlung zeigen“. Das sagt uns jetzt noch nicht so viel; um diesen Endpunkt also beurteilen zu können, müssen wir uns etwas genauer anschauen, was dafür tatsächlich gemessen wurde.

Um die major molecular response zu messen, wurde bei den Patienten die Transkription von BCR-ABL bestimmt. BCR-ABL ist ein Gen, das durch eine Mutation der Chromosomen 9 und 22 entsteht. Es codiert für das BCR-ABL-Protein, das zur unkontrollierten Vermehrung der betroffenen Zelle führt und dadurch unter anderem die chronisch myeloische Leukämie auslöst. Da BCR-ABL damit kausal für die Entstehung der Tumorzellen verantwortlich ist, ist es als Surrogatendpunkt ziemlich gut geeignet. So ein kausaler Zusammenhang ist aber nicht bei allen Surrogatendpunkten vorhanden, was einer der Hauptgründe ist, weshalb man sie mit Vorsicht behandeln sollte.

Wie viele andere Studien auch hatte „Nilotinib vs. Imatinib“ sekundäre Endpunkte. Dazu gehört unter anderem die complete cytogenetic response. Das heißt, dass (quasi) keine Tumorzellen im Knochenmark mehr vorhanden sind – ein Surrogatendpunkt, der aber direkt mit dem Verlauf der Erkrankung und dem Überleben der Patient:innen verknüpft ist. Solche sekundären Endpunkte sind nicht dazu gedacht, alleine die Wirksamkeit der neuen Therapie zu beweisen. Stattdessen sollen sie mehr Details über die untersuchte Behandlung liefern.

Signifikant – aber auch relevant?

Da wir jetzt geklärt haben, was Endpunkte sind, können wir uns dem widmen, was uns wirklich interessiert, nämlich die Ergebnisse einer Studie. Dabei geht es vor allem um drei Dinge: Wurden die Endpunkte erreicht? Ist der Effekt statistisch signifikant? Und ist er dann auch klinisch relevant?

Statistische Tests werden dazu verwendet, zufällige Schwankungen im Ergebnis von echten, durch die Behandlung ausgelösten Effekten zu unterscheiden. Ist die Wahrscheinlichkeit, dass Verumgruppe (die eine neue Behandlung bekommt) und Kontrollgruppe gleich sind – und damit die Unterschiede zwischen den Ergebnissen nur Zufall – klein genug, bezeichnet man das als statistisch signifikant.

Einen extrem großen Einfluss auf das Ergebnis hat die Anzahl der Studienteilnehmer:innen. Je weniger Teilnehmer:innen, desto größer werden die zufälligen Abweichungen sein. Daher haben Studien mit einer sehr kleinen Teilnehmer:innenzahl auch weniger Aussagekraft. Im Gegenzug kann eine große Zahl an Teilnehmer:innen dafür sorgen, dass selbst sehr kleine positive Ergebnisse trotzdem signifikant sind. Und das ist auch genau der Grund, dass man sich die Effektstärke immer genauer ansehen sollte – selbst wenn der Effekt statistisch signifikant ist.

Zusätzlich dazu, dass der Effekt der neuen Behandlung signifikant sein sollte, muss er natürlich auch tatsächlich merkbar sein. Ein Effekt, der zwar unzweifelhaft vorhanden ist, aber so klein, dass er Patinet:innen keinen wirklichen Vorteil bringt, ist kein Grund, ein neues Arzneimittel zuzulassen. Gerade weil jedes Arzneimittel auch immer das Risiko für Nebenwirkungen birgt.

Ergebnis des primären Endpunkts major molecular response in “Nilotinib vs. Imatinib”

Unsere Beispielstudie „Nilotinib vs. Imatinib“ berichtet, dass 44% der Teilnehmer:innen mit Nilotinib (300 mg) den primären Endpunkt (die major molecular response) erreichen, im Gegensatz zu 22% in der Kontrollgruppe. Und zwar mit einem p-Wert kleiner als 0,001 – was einer Wahrscheinlichkeit von 99,9% entspricht, dass der Unterschied kein Zufall ist. Das ist schonmal ziemlich gut, aber ist der Effekt auch klinisch relevant? Tja, das ist noch so ein Problem mit Surrogatendpunkten. Es ist für Laien auf dem Gebiet (und hier bin ich genauso Laie wie die meisten anderen) ziemlich schwierig abzuschätzen, was dieser Effekt für die Patient:innen tatsächlich bedeutet.

Ein kleiner Test

Damit können wir die Sache im Prinzip abschließen. Natürlich gäbe es noch so viel mehr, was wir uns anschauen können, aber als erster Überblick soll das erst einmal genügen. Und als kleiner Test können wir versuchen, „Nilotinib vs. Imatinib“ anhand der beschriebenen Kriterien einzuordnen.

Im Großen und Ganzen ist „Nilotinib vs. Imatinib“ eine solide Studie mit guter Aussagekraft. Sie erfüllt die Bedingungen, die wir an kontrollierte randomisierte Studien stellen: Es gibt eine Kontrollgruppe, mit der die neue Behandlung verglichen werden kann, und die Zuteilung in die Gruppen erfolgt zufällig. Damit sind die größten Fehlerquellen so gut es geht minimiert. Eine andere häufige Ursache für einen möglichen Bias ist allerdings nicht beseitigt, denn die Studie ist nicht verblindet. Teilnehmer:innen wissen genauso wie die behandelnden und auswertenden Personen, in welcher Gruppe sie sind. Da nachgewiesen ist, dass dieses Wissen oft zur Überschätzung des Effekts einer neuen Behandlung führt, müssen wir hier definitiv vorsichtig sein!

Die Wirksamkeit der Behandlung wird zwar anhand von Surrogatendpunkten bewertet, die prinzipiell weniger aussagekräftig sind als klinische Endpunkte. Allerdings stehen die gemessenen Endpunkte in einem direkten kausalen Zusammenhang zur Erkrankung, was trotzdem eine gute Aussagekraft ohne allzu viele Annahmen ermöglicht. In der Behandlungsgruppe erreichen doppelt so viele Patient:innen den primären Endpunkt der major molecular response. Da diese so direkt mit dem Verlauf der Erkrankung verbunden ist, können wir annehmen, dass das auch zu einer spürbaren Verbesserung für die Patient:innen führt. Die Ergebnisse wurden als intention-to-treat-Analyse ausgewertet. Damit wurden also auch alle dropouts, bei denen die Behandlung vorzeitig beendet wurde, mit in die Auswertung einbezogen.

Die Patient:innen in der Studie haben ihre CML-Diagnose maximal 6 Monate früher erhalten. Sie durften vorher fast keine andere Behandlung erhalten haben, nur eine bestimmte Schwere der Erkrankung aufweisen, keine eingeschränkte Herzfunktion haben und viele andere Arzneimittel nicht gleichzeitig einnehmen. Das schränkt natürlich ziemlich ein, und um die Ergebnisse auf eine Patient:innengruppen zu übertragen, wären strenggenommen mehr Studien nötig.

Aber mehr Studien sind sowieso nötig, denn „eine Studie ist keine Studie“, wie man so schön sagt. Die beste Aussagekraft haben eine Vielzahl an Studien, die zu ähnlichen Ergebnissen kommen (und dann z.B. in einer sogenannten Metaanalyse zusammengefasst werden).

Ich hoffe, ihr habt jetzt einige Werkzeuge zur Interpretation von klinischen Studien mehr in eurem metaphorischen Werkzeugkasten. Wenn ihr euch weiter informieren wollt, nutzt doch gerne die verlinkte Literatur hier und im ersten Teil als Ausgangspunkt. Und wenn ihr hier keinen neuen Blogpost verpassen wollt, abonniert am besten meinen Newsletter. Ansonsten empfehlt diesen kleinen Leitfaden zur Interpretation klinischer Studien auch gerne weiter.

Wie man klinische Studien liest, Teil 1 – Gute Studien, Schlechte Studien

Klinische Studien sind eines der wichtigsten Werkzeuge der evidenzbasierten Medizin. Stellt euch einfach mal vor, ihr habt ein revolutionäres neues Arzneimittel entwickelt. Ihr seid euch sicher, dass es extrem wirksam und super verträglich ist. Aber wie könnt ihr andere davon überzeugen? Na klar, ihr müsst es testen, und zwar auf eine Art und Weise, die möglichst alle Fehler ausschließt, die das Ergebnis eures Tests verfälschen könnten. Und genau dafür sind klinische Studien da.

Das Schöne daran ist, dass nicht nur ihr damit die Welt von eurem revolutionären neuen Arzneimittel überzeugen könnt. Wenn ihr wisst, wie man solche Studien liest und interpretiert könnt ihr auch beurteilen, wie gut alle anderen Behandlungen sind und ob nicht doch jemand übertrieben hat, was die Wirksamkeit einer (Arznei-)Therapie angeht.

Kurzum: Das Wissen über klinische Studien ist die Tür zur evidenzbasierten Medizin und die beste Möglichkeit, Wirksames von Unwirksamem zu unterschieden. Daher möchte ich euch in dieser zweiteiligen Reihe die nötigen Werkzeuge an die Hand geben, damit ihr klinische Studien lesen und beurteilen könnt. Ich konzentriere mich dabei zwar auf Studien über Arzneimittel, aber grundsätzlich könnt ihr die gleichen Prinzipien auch auf andere Behandlungsmethoden übertragen.

Klinische Studie oder nicht?

Wir sollten damit anfangen, was klinische Studien überhaupt sind – und was nicht. Klinische Studien sind experimentelle Studien, um die Wirksamkeit von Arzneimitteln zu kontrollieren. Epidemiologische Studien, in denen die Forschung nicht in einem experimentellen Setting stattfindet sondern Gruppen von Menschen ausschließlich beobachtet werden, sind damit keine klinischen Studien.

Außerdem finden klinische Studien ausschließlich an Menschen statt. Tierversuche, Studien in Zellen oder Organoiden oder sogenannte ex vivo Versuche mit isolierten Organen gehören hingegen zu den präklinischen Studien. Solche präklinischen Studien sind aber auch ziemlich wichtig und liefern beispielsweise toxikologische Daten, um zu entscheiden, ob eine Studie mit menschlichen Proband:innen überhaupt möglich ist.

Die allermeisten klinischen Studien werden für die Zulassung neuer Arzneimittel durchgeführt. Und solche Zulassungsstudien unterschieden sich sehr, je nachdem in welcher Phase sie sind: Phase I-Studien werden an einer kleinen Zahl gesunder Proband:innen durchgeführt, vor allem um die Sicherheit des Arzneimittels nachzuweisen. In Phase II-Studien kommen nun erstmals erkrankte Patient:innen zum Einsatz, aber wieder nur relativ wenige. Hier wird zum ersten Mal die Wirksamkeit in Menschen untersucht, wenn auch nur auf einem sehr grundlegenden Level, um zum Beispiel eine angemessene Dosis zu finden. Und dann kommen schon die Studien der Phase III, die mit deutlich mehr Patient:innen durchgeführt werden und einen Wirksamkeitsnachweis für die Zulassung eines Arzneimittels erbringen können.

Es gibt außerdem noch Phase IV-Studien, die typischerweise nach der Zulassung gemacht werden, aber die lassen wir mal beiseite. Auf jeden Fall seht ihr, dass „klinische Studie“ ein ziemlich weiter Begriff ist, der ganz unterschiedliche Ziele und Methoden einschließt.

Lasst uns daher tiefer eintauchen in die Welt der klinischen Studien und herausfinden, wie sie funktionieren und was eine gute von einer schlechten Studie unterscheidet.

Die Kontrollgruppe

Es gibt unzählige verschiedene Möglichkeiten des Studiendesigns, die wir uns hier unmöglich alle anschauen können. Deshalb konzentrieren wir uns auf die randomisierten kontrollierten Studien (kurz RCT), die quasi den Goldstandard darstellen. Und damit das ganze etwas weniger Abstrakt ist, schauen wir uns ein konkretes Beispiel an: „Nilotinib versus Imatinib for Newly Diagnosed Chronic Myeloid Leukemia“ von Saglio et al. aus dem Jahr 2010.

Nur ganz kurz, damit ihr auch wisst, worum es dabei geht: Nilotinib und Imatinib sind Arzneistoffe aus der Gruppe der Tyrosinkinase-Inhibitoren, die bei vielen Tumorerkrankungen verwendet werden. Eine davon ist die chronisch myeloische Leukämie, eine Tumorerkrankung der blutbildenden Stammzellen.

Nach diesem Einschub können wir uns jetzt mit der ersten namensgebenden Eigenschaft der randomisierten kontrollierten Studien beschäftigen, der Kontrollgruppe. Denn um die Wirkung eines Stoffes zu beurteilen, muss man ihn mit etwas vergleichen können. Im Fall unserer Studie hier steckt die Kontrollgruppe auch schon im Titel – Nilotinib versus Imatinib. Das bedeutet also, dass Nilotinib der neue Wirkstoff ist, der untersucht werden soll, während es sich bei Imatinib um die Kontrolle handelt.

Woran vermutlich die meisten Menschen bei einer Kontrollgruppe denken sind Placebokontrollen. Sie sind dazu gedacht, dass Kontexteffekte wie der Placeboeffekt das Ergebnis der Studie nicht verfälschen. Allerdings können nicht alle Studien eine Placebokontrolle verwenden. Stellt euch doch mal vor, Patient:innen mit einer potentiell tödlichen Krankheit würden, nur weil sie in der Kontrollgruppe sind, ein unwirksames Placebo bekommen statt einer Behandlung. Deshalb wird als Kontrollgruppe oft eine bereits etablierte Behandlung verwendet – so auch in unserem Beispiel mit Imatinib.

In den meisten Fällen soll dabei gezeigt werden, dass die neue Behandlung der Kontrolle überlegen ist, z.B. dass die Behandlung Nilotinib besser ist als mit Imatinib (was genau mit besser gemeint ist, ist auch sehr wichtig, und dem widmen wir uns ausführlich in Teil 2). Es gibt auch Studien, die eine Nicht-Unterlegenheit nachweisen wollen, also dass die neue Behandlung mindestens genauso gut ist wie die Kontrolle. Das ist zum Beispiel der Fall, wenn die Behandlung vereinfacht oder verkürzt werden soll. Solche Studien sind allerdings seltener – und bei einem Placebo als Kontrolle wird natürlich immer die Überlegenheit untersucht.

Wenn ihr also eine klinische Studie vor euch liegen habt, dann schaut als erstes, ob es eine Kontrollgruppe gibt – und wenn ja, welche. Denn ohne Kontrolle kann niemals wirklich nachgewiesen werden, ob der beobachtete Effekt (inklusive Nebenwirkungen) tatsächlich von der neuen Behandlung stammt und nicht durch den Placeboeffekt, eine natürliche Besserung der Erkrankung oder eine andere Quelle verursacht wird. Außerdem sollte die Kontrolle zur Behandlung passen. Eine Studie, bei der eine Gruppe eine Infusion bekommt und die andere nur Tabletten schlucken muss wäre zum Beispiel nicht sauber gemacht.

Der Zufall entscheidet

Der zweite entscheidende Faktor, der eine Studie zur randomisierten kontrollierten Studie macht, ist die Randomisierung. Das bedeutet, dass die Teilnehmer:innen zufällig auf die Kontrollgruppe und die Verumgruppe (so nennt man die Gruppe auch, welche die neue Behandlung bekommt) verteilt werden.

Ohne diese zufällige Aufteilung könnten die Forschenden ja diejenigen Patient:innen, denen es sowieso besser geht, der Verumgruppe zuteilen und jene, denen es schlechter geht, der Kontrollgruppe. Und Oh Wunder – am Ende geht es der Gruppe mit der neuen Behandlung insgesamt besser. Aber niemand kann wissen, ob das tatsächlich an der Behandlung liegt oder nicht eher an der fehlerhaften Aufteilung der Teilnehmer:innen.

Auch in unserer Beispielstudie wurde randomisiert. Die Patient:innen wurden zufällig in zwei Verumgruppen mit unterschiedlicher Dosis und eine Kontrollgruppe aufgeteilt.

Dass und wie randomisiert wurde sollte also immer im Methodenteil einer Studie zu finden sein, selbst wenn euch die Randomisierungsmethode an sich nichts sagt.

Wer ist alles verblindet

Ein weiteres Qualitätsmerkmal für klinische Studien ist die Verblindung. Dabei geht es darum, dass die an der Studie beteiligten Personen nicht wissen, wer in welcher Gruppe ist. Ihr habt bestimmt bemerkt, dass ich „an der Studie beteiligte Personen“ geschrieben habe und nicht Teilnehmer:innen. Denn idealerweise wissen nicht nur die Patient:innen nicht, in welcher Gruppe sie sind, sondern auch die behandelnden und die auswertenden Personen. Das bezeichnet man dann als einfache (nur Teilnehmer:innen), doppelte (Teilnehmer:innen + behandelnde Personen) oder dreifache Verblindung (alle).

Bei den Teilnehmer:innen geht es wieder um Kontexteffekte: Wenn Patient:innen wissen, dass sie nur ein Placebo bekommen, könnte der Placeboeffekt natürlich deutlich schwächer ausgeprägt sein. Und auch wenn sie wissen, dass sie Teil der Kontrollgruppe mit einer Standardbehandlung sind, kann sich das auf ihre Überzeugung auswirken, wirklich die wirksamste Therapie zu bekommen (oder sogar andersherum, wenn sie dem neuen Arzneistoff eher skeptisch gegenüberstehen).

Die Verblindung von behandelnden und auswertenden Personen soll Kontexteffekte und Bestätigungsfehler – confirmation bias – minimieren. Schließlich wünschen sich die Forscher:innen oft, dass ihre neue Behandlung auch funktioniert und treten vielleicht bei der Behandlung mit dem neuen Arzneimittel zuversichtlicher oder möglicherweise auch nervöser auf. Das kann wiederum Einfluss auf die Patient:innen haben. Andererseits könnten die Forscher:innen durch diesen Wunsch (unbewusst) eher Erkenntnisse berücksichtigen, die ihre Erwartungen bestärken. Aus diesen Gründen sollten auch sie verblindet sein.

Wenn wir uns jetzt wieder „Nilotinib vs. Imatinib“ ansehen, dann lesen wir nichts von einer Verblindung. Stattdessen steht dort open label, was im Prinzip nur bedeutet, dass keine Verblindung durchgeführt wurde und alle Teilnehmer:innen und Forscher:innen wussten, wer in welcher Gruppe ist. Das ist noch kein Grund, die Studie für nutzlos zu erklären, aber man sollte sich dieser Tatsache schon bewusst sein. Denn Studien ohne Verblindung überschätzen den Effekt einer Behandlung regelmäßig. Es wäre also nicht unvernünftig zu denken, dass auch der Behandlungserfolg bei „Nilotinib vs. Imatinib“ als etwas zu hoch eingeschätzt wird.

Außerdem wäre es noch ideal, wenn eine Studie, die verblindet durchgeführt wurde, auch über den Erfolg der Verblindung berichtet – also z.B. ob nicht doch einige Teilnehmer:innen herausgefunden haben, in welcher Gruppe sie sind.

Die Verblindung ist somit auch ein wichtiger Faktor, um die Qualität von klinischen Studien einzuschätzen, sowohl ob überhaupt verblindet wurde als auch wer – nur die Patient:innen oder auch die durchführenden Personen.

to be continued…

Eine zufällige Aufteilung in Gruppen, die jeweils eine Kontrolle oder den untersuchten Arzneistoff erhalten, macht also die randomisierten kontrollierten Studien aus. Sie sind die beste Methode um sicherzugehen, dass in der Studie aufgetretene Effekte – positive wie negative – tatsächlich von der Behandlung stammen und um gleichzeitig möglichst viele Fehlerquellen auszuschließen.

Das sind zwar die grundlegenden Aspekte des Studiendesigns, aber es gibt noch einiges mehr zu beachten, um eine Studie zu beurteilen. Zum Beispiel, wie viele und welche Patient:innen teilgenommen haben, wie der Erfolg der Behandlung überhaupt gemessen wurde und wie groß dieser Effekt dann war. Darum geht es dann aber im zweiten Teil.

Falls ihr keinen Beitrag mehr verpassen wollt, abonniert doch gerne meinen Email-Newsletter. Und falls euch dieser Post gefallen hat, teilt ihn gerne mit Menschen, die sich auch dafür interessieren.

Die Jagd nach neuen Antibiotika – Antibiotika-Resistenzen, Teil 2

Immer mehr Antibiotika-resistente Bakterienstämme stellen die Medizin vor eine große Herausforderung. Denn bei vielen Infektionen, die eigentlich mal einfach zu behandeln waren, versagen die gängigen Antibiotika. Neue antibakterielle Arzneimittel werden so dringend benötigt wie selten zuvor, aber dennoch läuft die Entwicklung neuer Antibiotika sehr langsam. Wieso das so ist, und welche Strategien vielleicht trotzdem zum Erfolg führen könnten, lest ihr hier.

Enges vs. breites Spektrum

Wie ich in Teil 1 beschrieben habe, ist die Entstehung von immer mehr Antibiotika-resistenten Bakterienstämmen im Prinzip unvermeidbar, solange wir Antibiotika verwenden; wenn ihr wissen wollt wieso, dann lest Teil 1 doch gerne zuerst.

Die Tatsache, dass die Zahl der Resistenzen zunimmt, bedeutet natürlich auch, dass wir neue Behandlungsoptionen brauchen. Wie die Aussehen könnten, und welche Probleme es dabei gibt, beschreiben zum Beispiel zwei spannende Reviews von Cook und Wright und Bergkessel et al. Neue Antibiotika sind aber gar nicht so einfach zu finden: Antibiotika müssen oft in hohen Dosen eingesetzt werden und dürfen daher auf keinen Fall zu toxisch sein. Außerdem müssen sie anderen physikochemischen Eigenschaften entsprechen als „normale“ Arzneistoffe, weil sie ja nicht nur von Menschen aufgenommen werden und in ihnen wirken sollen, sondern auch zusätzlich in die Bakterien gelangen und dort wirken müssen. Vor allem gibt es aber sehr viele unterschiedliche Bakterien und je breiter das Wirkspektrum sein soll – also gegen wie viele verschiedene Bakterien ein Stoff wirkt – desto schwieriger wird es.

Breitband-Antibiotika haben einen entscheidenden Vorteil: Sie brauchen viel weniger Diagnostik. Während vor dem Einsatz von Stoffen mit engem Spektrum erst die Erreger identifiziert werden müssen, können Breitband-Antibiotika ohne diesen Nachweis verwendet werden. Und auch wenn nicht unnötigerweise breit therapiert werden sollte, fehlt für einen Erregernachweis oft die Zeit (häufig beruht der Nachweis noch auf der Anzucht der Bakterien, was einige Tage dauern kann). Allerdings sind neue Breitband-Antibiotika viel schwieriger zu finden als solche mit engem Spektrum. Daher könnte die Zukunft der antibiotischen Therapie aus mehr Stoffen mit engem Spektrum in Kombination mit schnelleren (point of care) Nachweisen der Erreger bestehen.

Neue Antibiotika aus der Natur

Woher sollen die neuen Antibiotika kommen? – Und ich meine damit wirklich neue Antibiotika, mit neuen Zielstrukturen und Wirkmechanismen, statt Derivaten bereits bekannter Stoffe. Eine Möglichkeit wäre der Ort, von dem auch viele der etablierten Antibiotika kommen: Aus der Natur. Denn tatsächlich produzieren viele Mikroorganismen antibakterielle Stoffe und die meisten Antibiotika sind entweder direkt mikrobiellen Ursprungs oder davon abgeleitet.

Streptomyces, eine Gattung der Actinomyceten

Bei den Antibiotikaproduzenten stechen vor allem die Actinomyceten hervor (also um genau zu sein Bakterien der Ordnung der Actinomycetales, aber ehrlicherweise verwirrt mich Systematik von Bakterien immer etwas). Um dann aber neue Stoffe zu finden und nicht nur bekannte, müssen neue Techniken verwendet werden. Methoden wie die Genomik bieten gute Ansatzpunkte jenseits der phänotypischen Testung, also im Prinzip einfach des „Ausprobierens“, ob die Anwesenheit bestimmter Bakterien oder Stoffe das Wachstum anderer Bakterien hemmt. So kann zum Beispiel nach potentiellen Biosynthese-Genclustern neuer antibakterieller Stoffe gesucht werden oder nach bestimmten Resistenzgenen – die meisten Antibiotika-produzierenden Mikroorganismen tragen nämlich auch Resistenzen dagegen in ihrem Erbgut. Es könnte sich aber auch lohnen, abseits der Actinomyceten zu suchen und andere Mikroorganismen unter die Lupe zu nehmen, die bisher nicht so ausführlich nach neuen Antibiotika untersucht wurden.

So viele Möglichkeiten die genomischen Methoden auch bieten, sollte man dabei die besonderen Anforderungen an Antibiotika nicht aus den Augen verlieren. Tausend neu identifizierte Biosynthese-Gene bringen nichts, wenn die entsprechenden Stoffe die Zellwand von Bakterien nicht überwinden können oder von den Bakterien direkt wieder aus der Zelle herausgeschleust werden. Zusätzlich spielt auch der Kontext der Infektion eine Rolle: Bakterien verhalten sich bei einer Infektion unter Umständen anders als in einer Laborkultur und dementsprechend kann auch der Effekt eines potentiellen Antibiotikums unterschiedlich sein.

Alte Arzneistoffe als neue Antibiotika

Naturstoffe sind aber natürlich nicht die einzige Möglichkeit, um neue Antibiotika zu finden. Auch komplett synthetische Stoffe können Potential haben, wie die sogenannten Oxazolidinone zeigen, eine Gruppe synthetischer Antibiotika, zu denen u.a. das klinisch sehr wichtige Linezolid gehört.

Neue (synthetische) Antibiotika-Kandidaten müssen allerdings nicht unbedingt neue Moleküle sein. Es gibt ein Methode namens drug repurposing, bei der existierende Arzneistoffe für neue Einsatzgebiete verwendet werden. Ein erfolgreiches Beispiel ist Zidovudin, ein Wirkstoff bei HIV-Infektionen, das ursprünglich jedoch gegen Krebs entwickelt wurde. Tatsächlich sind etwa 30 % der zugelassenen Arzneistoffe der letzten Jahre in solcher Weise wiederverwendet – allerdings kein einziges Antibiotikum.

Viele existierende Wirkstoffe zeigen zumindest in vitro antibakterielle Eigenschaften, auch wenn das für ihre in vivo-Anwendung an Menschen noch nicht viel heißen muss. Der Vorteil des drug repuposings ist jetzt, dass für diese Stoffe häufig schon Daten zur Toxizität, zur Pharmakokinetik, der Maximaldosis usw. bekannt sind. Dadurch ist es viel einfacher abzuschätzen, ob sie sich tatsächlich auch als klinisch nützliche Antibiotika eigenen würden, und falls ja ist der Weg dahin sowohl günstiger als auch schneller.

Und selbst falls die antibakterielle Wirkung allein zu gering sein sollte, könnten solche Stoffe eventuell als Adjuvans eingesetzt werden, die in Kombination die antibakterielle Wirkung eines anderen Wirkstoffs verstärken oder Resistenzen umgehen, ohne selbst (stark) antibakteriell zu sein.

Bakteriophagen – Viren gegen Bakterien

Einige Menschen werden sich jetzt wohl Fragen: Wann geht es endlich um Phagen? Bakteriophagen sind eine Art Trendthema, wenn es um Alternativen zu Antibiotika geht. Es sind Viren, die ausschließlich Bakterien befallen und damit prinzipiell perfekt um selektiv Bakterien abzutöten. Genau darauf haben sie sich schließlich über Millionen Jahre an Evolution entwickelt.

Phagen infizieren immer nur spezifische Arten von Bakterien, wodurch sie z.B. gegenüber des Mikrobioms sehr schonend sind. Diese Selektivität ist aber nicht nur ein Vorteil: Phagen haben das gleiche Problem wie Antibiotika mit engem Spektrum. Sie brauchen einen ausführlichen Erregernachweis, was nicht immer praktikabel ist. Außerdem sind Phagen potentiell immunogen, können also vom Immunsystem erkannt werden und Abwehrreaktionen wie Fieber auslösen.

T4 Phagen infizieren E. coli Bakterien (Bild: Leppänen et al. DOI 10.1002/adbi.201700070, CC BY-SA 4.0)

Ein Mythos ist, dass Phagen keine Probleme mit der Entwicklung von Resistenzen hätten. Zwar haben sie sich sehr lange entwickelt, um Bakterien zu infizieren und zu töten, aber die Bakterien hatten genauso lange Zeit, um Abwehrmechanismen zu entwickeln. Kombinationen verschiedener Phagen könnten Resistenzen verzögern, und weiterentwickelte Varianten könnten eine bestehende Resistenz überwinden, aber im Prinzip haben Phagen, was die Resistenzentwicklung angeht, nicht wirklich Vorteile gegenüber Antibiotika.

Das soll allerdings nicht heißen, dass die Phagentherapie keinen Platz in der Behandlung von Infektionen hätte. Gerade wenn sich auch die Identifikation von Erregern weiterentwickelt, können Phagen eine wichtige Rolle bei Infektionen mit Antibiotika-resistenten Bakterien spielen. Dass der Einsatz von Phagen eine hoch-personalisierte Therapie und damit aufwändig  und teuer ist, und daher auch Antibiotika nicht ersetzen kann, wird sich jedoch nicht so schnell ändern.

Das wirtschaftliche Problem

Das größte Hindernis bei der Entwicklung neuer Antibiotika habe ich jedoch noch gar nicht angesprochen. Es ist allerdings kein wissenschaftliches Problem, sondern ein wirtschaftliches.

Mit neuen Antibiotika verdient nämlich niemand Geld. Die Entwicklung von Arzneimitteln ist – vor allem durch klinische Studien – extrem teuer. Für den Entwicklungsprozess, von der Entdeckung einer Leitstruktur bis zur Einführung in die Klinik, muss ein Unternehmen etwa 1,5 Milliarden Euro investieren, im Verkauf sind Antibiotika aber eher Pfennigware. Außerdem sollten neue Antibiotika im Idealfall so selten wie möglich eingesetzt werden; sie sollten als Reserve-Arzneimittel für dringende Fälle vorbehalten werden, damit sich nicht direkt neue Resistenzen dagegen entwickeln. Das alles führt nur leider dazu, dass Unternehmen mit neuen Antibiotika ihre Investitionskosten nicht wieder reinholen können, und daher auch keinen Anreiz dazu haben, Antibiotika zu entwickeln.

Tatsächlich wird daher überproportional viel Arbeit in diesem Bereich von der akademischen Forschung übernommen, viel mehr als bei anderen Arzneimittelgruppen. Allerdings haben die Universitäten bei weitem nicht genug Mittel, diese Aufgabe allein zu übernehmen.

Wir haben in unserer Gesellschaft entschieden, dass neue Arzneimittel von gewinnorientierten Unternehmen entwickelt werden und diese Forschung nicht von der öffentlichen Hand finanziert wird. Dieses Modell funktioniert jetzt – leider im Angesicht von mehr und mehr Resistenzen – allerdings nicht mehr.

Eine dreiteilige Lösung

Wir brauchen also eine dreiteilige Lösung für das Resistenz-Problem: Der erste Teil ist eine wissenschaftliche Lösung für die Entwicklung neuer antibakterieller Wirkstoffe. Dazu gehört ein besseres Verständnis für die physikochemischen Eigenschaften von Antibiotika, neue Quellen für Leitstrukturen wie z.B. bisher wenig untersuchte Mikroorganismen oder das drug repurposing, und sinnvolle Plattformen zur Evaluation der antibakteriellen Wirkung, die verschiedene bakterielle Physiologien und Infektionskontexte nicht außer Acht lassen.

Der zweite Teil ist eine therapeutische Lösung. Sie muss eine schnellere und einfachere Identifikation von Erregern, den gezielten Einsatz von Antibiotika mit engem Spektrum und personalisierten Therapien, die Verwendung von Adjuvantien und Hemmstoffen von Resistenzmechanismen, und ein sinnvolles Therapiemanagement zur Verlangsamung der der Resistenzentstehung umfassen. Außerdem ist eine der besten Methoden gegen Antibiotika-resistente Erreger die Vermeidung von Infektionen. Das ist natürlich selbst ein großes Feld, aber klar ist, dass Impfungen auch im Rennen gegen Antibiotika-Resistenzen extrem wichtig sind.

Der dritte Teil ist schließlich eine wirtschaftliche und politische Lösung. Neue Antibiotika kosten Geld, und dieses Geld müssen wir irgendwie aufbringen. Wir können nicht erwarten, dass unser auf Gewinn ausgelegtes Gesundheitssystem Therapien hervorbringt, die mehr kosten als sie einbringen. Und diese wirtschaftliche Lösung muss immer auch global gedacht werden: Auch in ärmeren Ländern muss die Versorgung mit (neuen) antibakteriellen Arzneimitteln sichergestellt sein. Resistenzen können überall auf der Welt  entstehen und Bakterien halten sich nicht an Staatsgrenzen, und deshalb sind neue Antibiotika nur für reiche Industrienationen niemals ausreichend.

Wenn euch dieser Beitrag gefallen hat, abonniert doch gerne meinen Newsletter, um keine Blogposts mehr zu verpassen. Und hier geht es nochmal zum ersten Teil dieses Textes über die Entstehung von Resistenzen und Resistenzmechanismen, falls ihr ihn noch nicht gelesen habt.

Wieso Antibiotika-Resistenzen unvermeidbar sind – Antibiotika-Resistenzen, Teil 1

Eine der größten Revolutionen der Medizin war ohne Zweifel die Entdeckung der Antibiotika. Während davor mehr als die Hälfte aller Menschen an Infektionen starben, sind viele dieser damals lebensbedrohlichen Krankheiten heute relativ gut zu behandeln. Doch diese „Unschlagbarkeit“ gegenüber bakteriellen Infektionen wird von Antibiotika-Resistenzen bedroht. Die Entstehung von mehr und mehr Resistenzen ist unvermeidbar, und schon jetzt sind multiresistente Stämme ein großes Problem. Die Entwicklung neuer Antibiotika läuft hingegen nur schleppend. Wie also kann in Zukunft unsere Antwort auf Antibiotika-Resistenzen aussehen?

Das Wettrennen gegen Resistenzen

Der Kampf gegen resistente Bakterienstämme ist wie ein Wettrennen. Aber während die Entwicklung neuer Antibiotika durch wissenschaftliche und gesellschaftliche Gründe – die wir uns später noch genauer anschauen werden – gebremst wird, ist die Entstehung neuer Resistenzen unaufhaltsam.

Dass Bakterien resistent gegenüber bestimmten Wirkstoffen werden, ist die logische Konsequenz aus deren Einsatz. Denn wenn ein Antibiotikum erst einmal „draußen“ in der Welt ist, haben Bakterien, die weniger empfindlich darauf sind, einen evolutionären Vorteil. Sie erwerben Resistenzen gegen diesen Stoff durch Mutationen in ihrem Erbgut, was durch ihre extrem große Zahl und kurzen Generationszeiten viel schneller geht als zum Beispiel evolutionäre Prozesse bei Menschen ablaufen.

Elektronenmikroskopisches Bild von E. coli Bakterien (Bild: Janice Haney Carr)

Und hat ein Bakterium erst einmal eine Resistenz erworben, kann es sie durch einen sogenannten horizontalen Gentransfer auch an andere Bakterien weitergeben. Dabei wird genetisches Material, beispielsweise in Form von ringförmigen DNA-Stücken, den Plasmiden, von einer Zelle an eine andere übertragen. Dieses genetische Material codiert entsprechende Antibiotika-Resistenzen – aber nicht nur das: Denn oft befindet sich darauf nicht nur die Information für die Resistenz gegen einen Stoff, sondern gegen viele unterschiedliche. Und so kann es dann passieren, dass die Selektion durch die Anwendung eines Antibiotikums quasi nebenbei zum Erwerb vieler weiterer Resistenzen führt.

Wie sich Bakterien gegen Antibiotika wehren

Aber wie funktionieren Resistenzen überhaupt? Da gibt es verschiedene Mechanismen – oder Kombinationen von Mechanismen – die Bakterien resistent machen können. Erst einmal gibt es die intrinsischen Resistenzen, bei denen Bakterien aufgrund ihrer „normalen“ Eigenschaft nicht anfällig für einen Stoff sind. Bakterien können grob in zwei Kategorien eingeteilt werden: Gram-positiv und Gram-negativ. Sie unterscheiden sich durch den Aufbau ihrer Zellwand, was der Grund für viele intrinsische Resistenzen ist. Denn einige Stoffe, z.B. das Antibiotikum Vancomycin, können die Zellwand Gram-negativer Bakterien (genau genommen deren äußere Membran) einfach nicht überwinden.

Intrinsische Resistenzen sind aber nicht diejenigen, die uns Probleme bereiten. Das sind eher die erworbenen Resistenzen. Und während eine verminderte Aufnahme von Antibiotika – beispielsweise durch verringerte Bildung von Kanalproteinen oder vermehrte Bildung von Proteinen, die Antibiotika wieder aus der Zelle heraustransportieren – auch hier ein wichtiger Mechanismus ist, ist es bei Weitem nicht der einzige.

Am simpelsten sind wohl einfach Veränderungen in der Zielstruktur. Denn alle Antibiotika binden an irgendeine Struktur der Bakterien, hauptsächlich Enzyme, um dort ihre Wirkung zu vermitteln. Wenn diese Zielstruktur,  das sogenannte Target, durch eine Mutation verändert ist, können Antibiotika schlechter daran binden und werden weniger wirksam (z.B. indem sich durch eine andere Aminosäure im aktiven Zentrum eines Enzym die Bindestelle orthosterischer Hemmstoffe verändert).

Bakterien können sich aber auch direkt gegen Antibiotika wehren, indem sie sie chemisch verändern. Dazu können sie entweder Bindungen spalten – meistens durch Hydrolyse von Estern oder Amiden – oder neue chemische Gruppen an die Antibiotika anhängen. So der so, am Ende führt das dazu, dass die veränderten Stoffe nicht mehr an ihr Target binden können.  Die Aufgabe, Antibiotika chemisch zu verändern, übernehmen Enzyme. Und das bekannteste Beispiel hier sind wohl die β-Lactamasen.

β-Lactamasen spalten Penicilline und machen sie damit unwirksam

β-Lactamasen gehören zu den Penicillin-bindenden Proteinen. Aber außer Penicilline (und generell β-Lactam-Antibiotika) zu binden, können sie diese leider auch abbauen und damit wirkungslos machen. Einige Bakterien besitzen natürlicherweise β-Lactamasen, aber auch viele Stämme, die vorher Penicillin-sensibel waren, werden durch die Bildung von β-Lactamasen resistent. Als Gegenmaßnahme wurden die β-Lactamase-Hemmer entwickelt, also Arzneistoffe, die nur dazu da sind, die abbauenden Enzyme zu hemmen. Sie werden zusammen mit einem Antibiotikum gegeben, um es vor dem Abbau zu schützen. Allerdings gibt es sehr viele unterschiedliche β-Lactamasen, gegen die einzelne Stoffe alleine nicht alle wirken können, und auch die abbauenden Enzyme verändern sich immer weiter – so entstanden zum Beispiel die extended spectrum β-Lactamasen, die noch mehr unterschiedliche Antibiotika abbauen können.

Das größte Problem: Der falsche Umgang

Welcher Mechanismus auch immer für die Resistenz verantwortlich ist, er ist genetisch codiert und kann damit sowohl evolutionär entstehen als auch zwischen Bakterien übertragen werden. Und hier müssen wir uns als Menschheit selbst an die Nase fassen: Denn wir schaffen die perfekten Bedingungen dafür. Die Entstehung von Resistenzen ist nämlich an Orten am einfachsten, an denen viele und viele unterschiedliche Bakterien einer großen Zahl an Antibiotika ausgesetzt sind. Dazu gehören natürlich Krankenhäuser, in denen viele verschiedene Patient:innen mit diversen Infekten behandelt werden müssen. Aber nicht allein die Kliniken sind das Problem. Das Abwasser ist oft mit den unterschiedlichsten (antibakteriellen) Arzneistoffen kontaminiert, sodass auch dort ideale Bedingungen für Entstehung resistenter Stämme herrschen.

Generell ist der größte Faktor, der zur Verbreitung von Antibiotika-Resistenzen beiträgt, der fehlerhafte Umgang mit Antibiotika. Das reicht von unnötig oder falsch verschriebenen Antibiotika durch Ärzt:innen über unzureichende Vorschriften und mangelhafte Aufklärung von Patient:innen bis hin zum übertriebenen Einsatz von Antibiotika in der Tierhaltung und der Kontamination von Wasser und Umwelt.

Daher sind Maßnahmen, unseren Umgang mit antibiotischen Arzneimitteln zu verbessern, eine wichtiges Werkzeug im Wettrennen gegen die Resistenzen. Ein Beispiel sind die Antibiotic Stewardship Programme, die auf mehreren Ebenen und interdisziplinär einen verantwortungsvollen Umgang fördern wollen.

Aber eine Sache muss trotzdem klar gesagt werden: Solange wir Antibiotika verwenden, ist die Resistenz dagegen ein Selektionsvorteil für Bakterien. Das bedeutet, dass Antibiotika-Resistenzen quasi unvermeidbar sind. Und das heißt auch, dass wir neue antibakterielle Wirkstoffe brauchen werden, um Infektionen mit diesen resistenten Bakterien zu behandeln. Wieso das aber gar nicht so einfach ist, und was wir tun können, um dieses Wettrennen doch zu gewinnen, erfahrt im zweiten Teil dieses Textes, den ihr hier findet.

Und wenn euch dieser Beitrag gefallen hat, dann abonniert doch gerne meinen Newsletter, um keinen neuen Blogpost mehr zu verpassen.

Die Sache mit der Homöopathie – Wieso Homöopathie kein Arzneimittel sein sollte

Vor einer Weile wurde bekannt, dass Homöopathie als Leistung der gesetzlichen Krankenkassen gestrichen werden soll. Das hat einiges an Diskussionen ausgelöst: Homöopath:innen und Heilpraktiker:innen sind offensichtlich verärgert – sie verdienen schließlich ihr Geld damit. Personen, die sich schon länger mit evidenzbasierter Arzneitherapie beschäftigen, haben sich hingegen gefreut, da sie das schon lange forderten. Aber was ist mit der Mehrheit der Menschen, die weder das eine, noch das andere sind? Ich denke, dass sehr viele Menschen gar nicht genau wissen, was Homöopathie überhaupt ist – und was nicht. Und für genau diese Menschen ist diese Einordnung hier gedacht.

Was ist Homöopathie überhaupt

Die Homöopathie wurde Ende des 18. Jahrhunderts von Samuel Hahnemann begründet. Zu dieser Zeit war sie tatsächlich so etwas wie eine Alternativmedizin, denn damals vorherrschend war die sogenannte Humoralpathologie, die Vier-Säfte-Lehre. Sie existiert seit der Antike und geht davon aus, dass alle Krankheiten durch ein Ungleichgewicht der vier Säfte Blut, Schleim, gelbe und schwarze Galle verursacht werden. Offensichtlich waren darauf basierende Behandlungen eher von begrenztem Erfolg – und nach damaligem Wissenstand lieferte Hahnemanns Homöopathie ebenso plausible Behandlungsmöglichkeiten. Aber während die Vier-Säfte-Lehre inzwischen keine Bedeutung mehr hat, existiert die Homöopathie weiter.

Es gibt zwei Grundsätze in der Homöopathie: Der erste ist das Ähnlichkeitsprinzip – similia similibus curentur oder auf Deutsch Gleiches wird von Gleichem geheilt – und das Prinzip der Potenzierung. Im Klartext bedeutet das, dass Stoffe, die gewisse Symptome auslösen, Krankheiten mit diesen Symptomen heilen können. Und je verdünnter (auf sehr spezifische, quasi rituelle Weise) diese Stoffe sind, desto wirksamer sind sie, wobei es nicht die Stoffe selbst sind, die eine Wirkung vermitteln, sondern ihre Informationen, die dabei auf das Trägermedium übergehen. Auch wenn das zur Zeit Samuel Hahnemanns nachvollziehbare Annahmen gewesen sein mögen, wissen wir jedoch heute, dass beides nicht stimmen kann.

Homöopathie vs. Phytotherapie

Bevor wir weiter machen, muss ich noch mit einem häufigen Missverständnis aufräumen: Die Vorstellung, dass Homöopathika pflanzlich und natürlich sind, ist extrem weit verbreitet, und für viele Menschen sind Homöopathika und pflanzliche Arzneimittel im Prinzip das Gleiche. Das beruht weitestgehend auf extrem gutem Marketing, und weniger auf der Realität, denn für die Homöopathie ist egal, wo ihre Ausgangsstoffe herkommen. Trotzdem wird vor allem von Herstellern von Homöopathika dieses Image der Natürlichkeit gepflegt und damit eine falsche Vorstellung von der Homöopathie geweckt. Phytotherapie, also die Therapie mit pflanzlichen Arzneimitteln, kann sehr wirksam sein, und tatsächlich gibt es auch keinen Grund dazu, dass sie generell sanfter oder nebenwirkungsärmer sein sollte als synthetisch hergestellte Arzneistoffe – für ein Beispiel verweise ich gerne auf meinen Text zu pflanzlichen Cytostatika. Homöopathika haben hingegen weder einen plausiblen Wirkmechanismus noch nachgewiesene Wirkungen.

Homöopathie wirkt nicht

Um das erstmal aus dem Weg zu räumen: Ich bin kein Fan von der Formulierung „keine Wirkung über den Placebo-Effekt hinaus“, denn wenn es um die Wirkung von Arzneimitteln geht, halte ich es mit der Formulierung aus dem Arzneimittelgesetz: „eine pharmakologische, immunologische oder metabolische Wirkung“, und der Placebo-Effekt ist nichts davon. Ich kann also mit gutem Gewissen schreiben, dass Homöopathika keine Wirkung haben.

Mir ist bewusst, dass viele Studien kursieren, die etwas anderes behaupten. Aber wenn man sich die entsprechende Literatur genau anschaut, stellt man fest, dass große und gut gemachte Studien und Meta-Analysen keine Wirkung von Homöopathika finden (z.B. ein Statement des easac, ein Cochrane-Review zu Atemwegsinfektionen oder ein Review zu psychiatrischen Indikationen, und dieses Review zu Homöopathika allgemein). Studien, die positive Effekte von Homöopathie zeigen, weisen oft ziemlich offensichtliche Fehler auf, und sind teilweise schon zurückgezogen – was viele Menschen nicht daran hindert, sie trotzdem als Beweis verwenden zu wollen (möglichen Bias in Studien zeigt z.B. dieses Review). Über ein Beispiel, eine Studie an Wasserlinsen, habe ich auf diesem Blog schon geschrieben. Aber wenn man genug cherrypicking betreibt, ist es trotzdem immer möglich, eine Wirkung irgendwo herauszulesen.

Im Gegensatz zur Wirkung dazu gibt es gute Erklärungen, wieso Homöopathie den Anschein einer Wirkung haben kann. Neben dem viel genannten Placebo-Effekt – es geht mir besser, weil ich erwarte, dass es mir besser gehen wird – ist vor allem die zeitliche Komponente entscheidend. Viele Erkrankungen, die typischerweise homöopathisch behandelt werden, gehen irgendwann von selbst vorbei. Nehme ich dabei Homöopathika, denke ich aber, dass es deren Verdienst war, obwohl sie eigentlich gar nichts bewirkt haben. Für eine ausführlichere Erklärung möchte ich auf diesen Artikel des INH verweisen.

Wieso die Streichung als Kassenleistung wichtig ist

Selbst wenn Homöopathika keine Wirkung haben, können sie doch nicht schaden, oder? Wieso sollten sie dann nicht von den Krankenkassen bezahlt werden? Naja, so einfach ist das nicht. Einerseits müssen wir uns natürlich fragen, ob wir als Solidargemeinschaft tatsächlich Geld für wirkungslose Mittel ausgeben wollen. Aber abgesehen von dem Geld verleiht es der Homöopathie eine Legitimität, die sie nicht besitzen sollte. Denn ohne Wirkung ist die Homöopathie nicht als Arzneitherapie geeignet. Stattdessen kann sie sogar gefährlich sein, wenn nämlich Patient:innen zugunsten der Homöopathie auf eine nötige Behandlungen verzichten. Nicht alle Krankheiten gehen von selbst vorbei – Herz-Kreislauf-Erkrankungen, schwere Infektionen oder Krebs zum Beispiel. Wenn Patient:innen suggeriert wird, dass Homöopathika bei Erkältungen oder Kopfschmerzen helfen können, wieso sollten sie dann nicht auch bei ernsten Erkrankungen welche nehmen? Aus Sicht der Patient:innen gibt es erstmal keinen Grund dagegen, schließlich gehen sie davon aus, dass die Homöopathie sie heilen wird. Und genau deshalb sollte erst gar nicht der Anschein erweckt werden, Homöopathie hätte irgendeine Wirkung.

Außerdem wird mit der Homöopathie ein wissenschaftsfeindliches Weltbild kultiviert. Nicht, dass sich unbedingt jede:r für Wissenschaft interessieren muss, überhaupt nicht. Aber die Behauptung, Homöopathika wirkten entgegen allen wissenschaftlichen Erkenntnissen normalisiert die Einstellung, dass es so etwas wie alternative Realitäten gibt. Realitäten, in denen Homöopathie wirkt, obwohl wissenschaftliche Erkenntnisse etwas anderes sagen, in denen medizinische Behandlungen nichts bringen, in denen Impfungen krank machen, in denen Viren nicht existieren oder in denen der Klimawandel nicht menschengemacht ist, obwohl wissenschaftliche Erkenntnisse etwas anderes sagen.

Homöopathie sollte kein Arzneimittel sein

Die Streichung von Homöopathie als Kassenleistung ist ein wichtiger Schritt. Noch wichtiger wäre aber, dass Homöopathika nicht mehr als Arzneimittel gelten. Denn sie besitzen einen Sonderstatus im Arzneimittelgesetz, wonach sie als Arzneimittel gelten, ohne die strengen Zulassungsvoraussetzungen erfüllen zu müssen. Normalerweise müssen neue Arzneimittel neben vielen anderen Dingen vor allem Wirksamkeit und Unbedenklichkeit nachweisen. Homöopathika müssen das aber nicht, sie müssen nämlich statt zugelassen nur registriert werden. (Diese Sonderegel teilen sie sich mit den traditionellen pflanzlichen Arzneimitteln, die auch nur registriert werden müssen).

Der Sonderstatus von Homöopathie bedeutet, dass sie als Arzneimittel bezeichnet und beworben werden dürfen, in Apotheken verkauft werden müssen und von Ärzt:innen verschrieben werden können. Das führt aber eben genau dazu, dass Patient:innen sie für eine wirksame Behandlung halten könnten. Statt in die Apotheke gehört die Homöopathie eher in Drogerien, zu anderen Wellnessprodukten, ohne eine Wirksamkeit vorzugaukeln, die sie nicht besitzt.

Wenn ihr euch weiter zur Homöopathie informieren wollt, gibt es dafür tolle Ressourcen, zum Beispiel die Seite des Informationsnetzwerks Homöopathie. Ansonsten hoffe ich, dass mein Text schon einmal eine  guten Überblick geliefert hat. Und wenn euch dieser Beitrag gefallen hat, abonniert doch gerne meinen Email-Newsletter.

CRISPR-basierte Therapien, Teil 2: Ihre Probleme und ihr Potential

Im ersten Teil dieses Textes habe ich euch Exa-cel, die erste CRISPR-basierte Gentherapie vorgestellt. Wie wir gesehen haben, ist das CRISPR/Cas9-System extrem gut dazu geeignet, DNA an einer ganz spezifischen Stelle zu editieren. So können dann – wie z.B. bei Exa-cel – bestimmte Gene ausgeschaltet werden.

Das funktioniert, indem eine guide RNA an eine komplementäre DNA-Sequenz bindet und das Cas9-Protein die DNA an dieser Stelle schneidet. Dieser DNA-Doppelstrangbruch führt dazu, dass zufällige Nukleotide (die einzelnen Bausteine der DNA) entfernt oder eingefügt werden. Durch diesen non-homologous end joining genannten Prozess verliert das geschnittene Gen seine Funktion. Mithilfe eines anderen Prozesses können sogar neue Gene an der geschnittenen Stelle eingefügt werden. Was jedoch auch immer das Ziel ist, CRISPR/Cas9 ist ein sehr exaktes und wirkungsvolles Werkzeug.

Cas9 schneidet DNA dort, wo die guide RNA bindet. (Bild: marius walter, CC BY-SA 4.0)

Aber wenn das CRISPR/Cas9-System ein so tolles Werkzeug ist, warum behandeln wir dann noch nicht alle möglichen Krankheiten damit? Das Potential wäre auf jeden Fall da. Diverse Erbkrankheiten könnten „einfach“ korrigiert werden. Schlimme Autoimmunerkrankungen könnten behandelt werden. Die Krebstherapie könnte enorme Fortschritte machen (beispielsweise könnten mit CRISPR heterologe CAR-T-Zellen hergestellt werden – was das ist findet ihr in meinem Text über die CAR-T-Zelltherapie). Oder Patient:innen mit Diabetes mellitus, gerade vom Typ 1, wären nicht mehr von einer lebenslangen Medikation abhängig.

Nun ja, ein Grund ist, dass wir das Potential des CRISPR/Cas9-Systems noch nicht so lange kennen und solche Dinge eben Zeit brauchen. Aber ein anderer gewichtiger Grund ist, dass noch einige Hürden überwunden werden müssen, bis aus CRISPR eine massentaugliche Therapieoption wird.

Schutzmechanismen und off target-Effekte

Ein – aus biologischer Sicht sehr spannendes – Problem ist, dass die Anwendung von CRISPR/Cas9 die Entstehung von Krebszellen fördern könnte. Laut eines Papers von 2018 lösen die Doppelstrangbrüche, die dabei entstehen, einen eingebauten Schutzmechanismus in Zellen aus: Den Zellzyklusarrest durch das Tumorsuppressorprotein p53. Das bedeutet einfach nur, dass die Zelle sich zum Schutz vor der Verbreitung von DNA-Schäden nicht weiter teilt (über den Tumorsuppressor p53 gibt es auch einen Blogbeitrag von mir, falls ihr gerne mehr darüber wissen wollt). Das führt dann aber dazu, dass bei der Anwendung von CRISPR Zellen selektiert werden, deren Schutzmechanismus defekt ist, da diese sich ja weiter teilen können. Solche Zellen sind dann deutlich anfälliger dafür, zu Krebszellen zu werden, da sich in ihnen einfacher Mutationen akkumulieren können.

CRISPR/Cas9-editierte Zellen könnten also ein größeres Risiko zur Entstehung von Tumoren bergen. Soweit ich weiß, gibt es dazu aber keine klinischen Daten. Gerade bei einer so neuartigen Therapie sollte das allerdings genau im Auge behalten werden. Denn für innovative Therapien, die seltene Krankheiten als Ziel haben oder deutlich besser zu sein versprechen als die bisherige Behandlung, gibt es beschleunigte Zulassungsverfahren – und das auch zurecht. Aber gerade langfristige Folgen wie Krebs könnten dabei erstmal unentdeckt bleiben.

Dann gibt es noch etwas, das off target-Effekte genannt wird. So nennt man es, wenn die guide RNA an andere Stellen der DNA bindet als beabsichtigt, die dann ebenfalls geschnitten werden. Dabei können dann möglicherweise wichtige Gene zerstört werden. Glücklicherweise ist es möglich, solche off target-Effekte mit computerbasierten oder experimentellen Methoden vorherzusagen – was dann für jeden neuen Therapieansatz nötig ist und z.B. auch bei Exa-Cel gemacht wurde.

Aber auch wenn die gewünschte Stelle der DNA geschnitten wird, können Probleme auftreten. Ein Paper ebenfalls von 2018 zeigt, dass es nicht nur zu kleinen indel-Mutationen kommen kann, sondern auch zu sehr großen Veränderung der DNA. Mehrere Kilobasen lange Stücke (das ist ziemlich lang) können deletiert werden, oder das Erbgut wird an dieser Stelle ganz umstrukturiert. Das kann dann wiederum auch andere Gene als nur das Ziel-Gen betreffen, obwohl die guide RNA an die richtige Stelle gebunden hat.

Vektoren und Immunantwort

Letztlich ist bei jeder CRISPR-basierten Therapie auch die Frage, ob sie in vivo oder ex vivo stattfindet, also innerhalb oder außerhalb der Patient:innen. Exa-Cel ist eine ex vivo-Therapie: Stammzellen werden den Patient:innen entnommen, genetisch verändert, und dann wieder eingesetzt. So ein Verfahren ist extrem aufwändig und teuer, und es geht auch mit Nachteilen für die Patient:innen einher. Beispielsweise müssen vor der Infusion von Exa-Cel alle vorhandenen Stammzellen des Knochenmarks mit Zytostatika zerstört werden, damit sich die editierten Stammzellen etablieren können.

Eine der größten Herausforderungen für die in vivo-Anwendung dagegen ist es, den richtigen Vektor zu finden. Denn irgendwie muss das CRISPR/Cas9-System seinen Weg in die richtigen Zellen finden. Dazu gibt es verschiedene Methoden, die jeweils ihre eigenen Vor- und Nachteile haben. Zur Wahl stehen u.a. virale Vektoren wie Lenti- oder Adeno-assoziierte Viren, Liposomen oder Nanopartikel.

Adeno-assoziiertes Virus. (PDB 7WJW)

Schnitt durch ein Liposom,

Alle Überlegungen auszuführen, die in der Wahl oder Entwicklung des passenden Vektors stecken, würde vermutlich einen eigenen Text benötigen. Aber ein wichtiger Punkt dabei ist die Immunreaktion, die der Vektor auslöst. Gerade virale Vektoren bergen das Potential, vom Immunsystem erkannt und bekämpft zu werden.

Aber tatsächlich ist das nicht nur ein Problem der Vektoren. Das Cas9-Protein selbst ist immunogen, und die Mehrzahl der Menschen besitzen Antikörper und T-Zellen, die gegen die gebräuchlichsten Cas9-Proteine gerichtet sind (beschrieben in diesem Paper). Da besteht dann natürlich die Gefahr, dass die Immunreaktion – auf Vektor oder Cas9 – die Therapie neutralisiert und zusätzlich Nebenwirkungen auslöst.

Das Potential der CRISPR-basierten Therapien

Ihr seht also, dass CRISPR keine Wunderwaffe ist, die alle Krankheiten heilen kann. Aber die Zulassung von Exa-Cel zeigt immerhin, dass CRISPR-basierte Therapien das Potential besitzen, welches wir – oder zumindest die Seriöseren unter uns – uns von ihnen erhofft hatten. Sie können eine ursächliche Behandlung für Krankheiten bieten, für die das ansonsten nur schwer oder gar nicht möglich wäre, und das ist eine extrem vielversprechende Aussicht.

Wir werden auf jeden Fall noch weitere CRISPR-basierte Therapien in die Klinik kommen sehen. Erstmal werden das aber teure und aufwändige Therapien bleiben, die eher selten angewendet werden. Bis CRISPR-basierte Therapien massentauglich sind, müssen noch einige Probleme gelöst werden. Wann und ob überhaupt das möglich ist, wird dann wohl die Zeit zeigen müssen.

Falls euch dieser Blogpost gefallen habt, abonniert doch gerne meinen Email-Newsletter, um keinen neuen Beitrag mehr zu verpassen. Oder lest doch den ersten Teil dieses Textes, falls ihr das noch nicht getan habt.

CRISPR-basierte Therapien, Teil 1: Exa-cel

Vor kurzem wurde in den USA und Großbritannien die erste auf CRISPR basierende Gentherapie überhaupt zugelassen. Seit seiner Entdeckung hat das CRISPR/Cas9-System der Biomedizin viele neue Möglichkeiten verschafft. So ist es schon lange ein selbstverständlicher Teil der Grundlagenforschung und hat seinen Entdeckerinnen einen mehr als verdienten Nobelpreis eingebracht. Und fast ebenso lange wird über das Potential für die Behandlung von Krankheiten gesprochen, das CRISPR besitzt.

Jetzt, da die erste auf CRISPR basierende Therapie – die übrigens den Namen Exa-cel trägt – zugelassen ist, möchte ich in diesem zweiteiligen Blogbeitrag einen genaueren Blick auf die therapeutische Anwendung von CRISPR werfen. Natürlich wird es um Exa-cel gehen, aber da darüber in den letzten Wochen schon sehr viel geschrieben wurde, werden wir uns vor allem die Chancen, Schwierigkeiten und Risiken anschauen, die CRISPR-basierte Therapien generell bereithalten.

Sichelzellanämie und β-Thalassämie

Exa-xel ist eine CRISPR-basierte Gentherapie für die beiden Erbkrankheiten Sichelzellanämie und β-Thalassämie. Bei beiden Krankheiten werden von Mutationen in dem Protein Hämoglobin verursacht, das für den Sauerstofftransport in Blut verantwortlich ist. (Etwas mehr über Hämoglobin erfahrt ihr in meinem Text über Häm).

Hämoglobin besteht aus vier Proteinketten, die sich zu einem großen Protein zusammenlagern. Zwei dieser Ketten werden α-Ketten genannt, und die anderen beiden β-Ketten. Mutationen in den β-Ketten führen dazu, dass bei der β-Thalassämie die Bildung neuer Erythrozyten – die roten Blutkörperchen, die Hämoglobin beherbergen und Sauerstoff transportieren – gestört ist. Die fehlerhaften β-Ketten bei der Sichelzellanämie verursachen eine Verformung der Erythrozyten. Sie werden weniger flexibel, verklumpen und können Blutgefäße verstopfen. Dadurch entstehen starke Schmerzen, eine Vielzahl von Organen wird geschädigt und die Patient:innen haben eine reduzierte Lebenserwartung. Zusätzlich werden Erythrozyten dauerhaft zerstört, sodass die Patient:innen unter einer chronischen Anämie – „Blutarmut“ – leiden.

Struktur von humanem Deoxy-Hämoglobin aus zwei alpha-Ketten (grün und orange) und zwei beta-Ketten (pink und violett). (PDB 1A3N)

Beide Erkrankungen werden bisher hauptsächlich mit einer Kombination aus Bluttransfusionen und medikamentöser Therapie behandelt. Keine der bisherigen Therapieoptionen kann tatsächlich die Ursache, die Bildung des mutierten Hämoglobins, bekämpfen.

Exagamglogen autotemcel, wie der der übertrieben umständliche, vollständige Name von Exa-cel lautet, ist die erste Möglichkeit, diese Krankheiten auch (auf eine gewisse Art) ursächlich zu bekämpfen.

Exa-cel

Die Therapie bedient sich dabei quasi eines Tricks. Denn Menschen besitzen nicht nur eine Form von Hämoglobin, sondern zwei. Ungeborene Kinder bilden ein anderes, das fetale Hämoglobin, das statt aus zwei α- und β-Ketten aus zwei α- und γ-Ketten besteht. In den ersten Lebensmonaten wird die Synthese des fetalen Hämoglobins allerdings ab- und die des „normalen“ Hämoglobins angeschaltet.

Weil das fetale Hämoglobin nicht aus β-Ketten besteht, funktioniert es auch ohne Probleme, wenn die schädlichen Mutationen im Gen für die β-Ketten vorliegen. Daher beginnen die Symptome bei Babys mit β-Thalassämie bzw. Sichelzellanämie erst nach einiger Zeit, nämlich wenn sie kein fetales Hämoglobin mehr bilden.

Die Idee hinter Exa-cel ist, die Synthese des fetalen Hämoglobins, das unabhängig von den Mutationen der β-Kette funktioniert, wieder zu aktivieren. Dazu werden den Patient:innen hämatopoetische Stammzellen entnommen, aus denen sich unter anderem die Erythrozyten entwickeln. Die Stammzellen werden mittels CRISPR/Cas9 – dazu gleich mehr – genetisch modifiziert.

Und zwar wird die Synthese des fetalen Hämoglobins normalerweise von dem Transkriptionsfaktor BCL11A – einem DNA-bindenden Protein – unterdrückt. Die Bildung dieses unterdrückenden Transkriptionsfaktors ist abhängig von einem DNA-Abschnitt, der als Enhancer bezeichnet wird. Enhancer sind Abschnitte im Genom von Eukaryoten, die häufig nötig sind, damit ein bestimmtes Gen exprimiert werden kann. Und dieser BCL11A-spezfische Enhancer ist nötig, damit der Transkriptionsfaktor, der die Synthese des fetalen Hämoglobins unterdrückt, gebildet werden kann. In den Enhancer wird jetzt eine Mutation eingeführt, die dafür sorgt, dass er nicht mehr funktioniert. Das wiederum bedeutet, dass es keinen unterdrückenden Transkriptionsfaktor BCL11A mehr gibt, und das heißt dann, dass der Bildung von fetalem Hämoglobin nichts mehr im Weg steht. (Diese Strategie wurde übrigens in diesem Paper von 2015 erstmals beschrieben.)

Die modifizierten Stammzellen werden den Patient:innen wieder zugeführt. Dort differenzieren sie sich (unter anderem) zu Erythrozyten, die jetzt dauerhaft funktionierendes fetales Hämoglobin besitzen.

Übersicht über das Hämoglobin der beiden Patient:innen in der ersten klinischen Studie zu Exa-cel. Nach Infusion von Exa-cel (CTX001) steigt der Anteil an fetalem Hämoglobin (blau) deutlich. (Quelle: Frangoul et al. 2021, DOI 10.1056/NEJMoa2031054)

2020 wurden erste Ergebnisse einer klinischen Studie an zwei Patientinnen veröffentlicht, und 2022 wurden weitere Studienergebnisse an 75 Patient:innen bei einem Kongress vorgestellt. Die Therapie weist zwar auch einige schwerwiegende Nebenwirkungen auf, führt aber zu einer deutlichen Verbesserung der Symptome, macht Bluttransfusionen überflüssig und ist – über den Untersuchungszeitraum – dauerhaft anhaltend.

Dieses Jahr wurde dann bekannt, dass Exa-cel als Therapie für Sichelzellanämie und β-Thalassämie sowohl in Großbritannien als auch den USA zugelassen wird.

CRISPR/Cas9

„Die Stammzellen werden mittels CRISPR/Cas9 genetisch modifiziert“, habe ich oben geschrieben. Das ist ja schön und gut, und davon haben wir ja wahrscheinlich alle schonmal gehört. Aber wie genau funktioniert das?

Das CRISPR/Cas9-System stammt ursprünglich aus Bakterien und Archaeen. Dort fungiert es als eine Art Immunsystem gegen den Angriff von Phagen – Viren, die Bakterien und Archaeen befallen. Denn was tun diese Phagen? Sie schleusen ihr eigenes Erbgut in die Bakterien und Archaeen ein. Daher brauchen diese eine Möglichkeit, fremde DNA zu zerstören: CRISPR/Cas9 (und viele weitere).

Das CRISPR/Cas9-System besteht aus drei Teilen: Ein RNA-Strang, der eine bestimmte DNA-Sequenz binden kann: die crRNA. Ein RNA-Strang, der an die crRNA bindet und eine bestimmte dreidimensionale Struktur, eine Haarnadelschleife formt: die tracrRNA. Und ein Enzym, das den Komplex aus crRNA und tracrRNA bindet: Cas9. Cas9 ist eine Endonuklease, also ein Enzym, das DNA-Stränge durchtrennen kann. Zusammen bindet dieser Komplex an eine bestimmte DNA-Sequenz und schneidet die DNA dort.

Doppelstrangbruch durch Cas9 in einer Zielsequenz, an die guide RNA / crRNA gebunden hat. (Bild: marius walter, CC BY-SA 4.0)

Das CRISPR/Cas9-System ist so extrem nützlich, weil man die DNA-bindende Sequenz der crRNA quasi beliebig ändern kann. Dadurch kann ein DNA-Strang an einer gewünschten Stelle gezielt geschnitten werden.

Wie immer gilt auch hier der der Disclaimer: in Realität ist das Ganze ein wenig komplizierter. Zum Beispiel gibt es verschiedene Cas-Proteine mit unterschiedlichen Eigenschaften, die zu schneidende DNA muss bestimmte Motive beinhalten und praktisch wird auch oft eine fusionierte Variante aus crRNA und tracrRNA, die single guide oder sgRNA, verwendet.

Wenn der DNA-Strang dann jedenfalls geschnitten ist, wird er auch wieder repariert. Bei dieser Reparatur wird der DNA-Strang aber oft nicht wieder korrekt zusammengefügt. Stattdessen werden in einem Prozess, der non-homologous end joining heißt, einige Nukleotide – die Bausteine der DNA – entfernt oder eingefügt. Solche indel-Mutationen (insertion und deletion) machen den geschnittenen DNA-Abschnitt oft funktionsunfähig, und tadaa, schon haben wir einen DNA-Abschnitt abgeschaltet.

Es ist auch außerdem möglich, mit dem CRISPR/Cas9-System gezielt DNA-Abschnitte an der Schnittstelle einzufügen, doch das ist nochmal eine etwas andere Geschichte.

Wo ist dabei der Haken?

Wenn das CRISPR/Cas9-System ein so tolles Werkzeug ist, warum behandeln wir dann noch nicht alle möglichen Krankheiten damit?

Darum wird es in Teil zwei dieses Textes gehen, der demnächst erscheinen wird. Darin werden wir uns dann anschauen, welche Probleme noch überwunden werden müssen, um CRISPR wirklich als effektive und massentaugliche Therapie nutzen zu können.

Wenn ihr das nicht verpassen wollt, dann abonniert doch am besten meinen Newsletter, dann werdet ihr direkt über neue Blogbeiträge informiert.

Zelltherapie gegen Krebs: Was CAR-T-Zellen können und was sie nicht können

In den letzten Jahrzehnten hat die Medizin wirklich enorme Fortschritte gemacht, und in kaum einem anderen Bereich ist das so spürbar wie in der Krebstherapie. Tumorerkrankungen, die früher ein quasi sicheres Todesurteil darstellten, haben heute Heilungswahrscheinlichkeiten von 90% oder mehr! Möglich gemacht wurde das von einigen revolutionären Tumortherapien, die unsere Behandlungsmöglichkeiten nach und nach erweiterten. Angefangen hat in den 1940er Jahren alles mit N-Lost als erstes richtiges Zytostatikum. Richtig große Sprünge hat die Tumortherapie aber auch in den letzten Jahrzehnten gemacht, als zum Beispiel die ersten monoklonalen Antikörper aufkamen, oder mit Imatinib als der erste Tyrosinkinase-Inhibitor, der eine ganze Klasse von Wirkstoffen begründet hat. Aber hier soll es um eine der neuesten Revolutionen der Krebstherapie gehen, die CAR-T-Zellen. Und vor allem soll es darum gehen, wie die CAR-T-Zelltherapie in Zukunft noch effektiver und vielseitiger werden könnte.

Zelltherapie mit chimären Rezeptoren

Bei CAR-T-Zellen handelt es sich um den Wirkstoff (ja, auch ganze Zellen können ein Wirkstoff sein!) einer Zelltherapie zur Behandlung verschiedener Krebserkrankungen. Und das Prinzip dahinter ist so simpel wie genial: denn die CAR-T-Zelltherapie ermöglicht es unserem Immunsystem, Tumorzellen zu erkennen und zu töten. Dazu werden Patient:innen eine Art von Immunzellen – die T-Lymphozyten – entnommen, die dann gentechnisch modifiziert werden. Mithilfe eines viralen Vektors wird ein Gen in die Zellen eingeschleust, das für einen chimären Antigenrezeptor codiert (= CAR). Dafür werden z.B. Lentiviren verwendet, die häufig zur Transduktion (= Gentransfer durch Viren) von Säugerzellen eingesetzt werden. Das Gen wird in das Erbmaterial der T-Zellen eingebaut, die den chimären Antigenrezeptor daraufhin stabil exprimieren. Es ist dieser chimäre Rezeptor, der es den CAR-T-Zellen ermöglicht, Tumorzellen zu erkennen. Aber wieso? Wie schafft er es, den Zellen diese Fähigkeit zu verleihen?

Übersicht über den Ablauf der CAR-T-Zelltherapie (Bild: Michels, A. et al. 2020, DOI 10.1007/s00103-020-03222-8, CC BY 4.0)

Zusammengepuzzelte CARs

Manche Krebsarten exprimieren vermehrt bestimmte Antigene. Das bedeutet, dass von einer oder mehreren Arten von Proteinen mehr gebildet wird und diese dann auch auf der Oberfläche der Krebszellen sichtbar sind. CARs werden so entworfen, dass sie genau diese Antigene erkennen können. Häufig ist der Bereich der CARs, der dafür zuständig ist, an der Antigen-bindenden Struktur von Antikörpern orientiert. An dieser Antigen-bindenden Domäne hängt ein Linker, der sie mit einer Transmembrandomäne verbindet. Diese liegt (wie der Name vermuten lässt) innerhalb der Membran der CAR-T-Zellen. Sie leitet das Signal, dass der Rezeptor ein Tumor-Antigen gebunden hat, in das Innere der Zelle weiter. Die Transmembrandomäne stammt normalerweise aus einem von mehreren natürlich vorkommenden Proteinen aus Immunzellen (u.a. CD28 oder CD3).

Modell eines CARs (pink und orange) in der Memran (grau) zusammen mit dem Signalprotein ZAP70 (blau) (Bild: PDB-101, D. Goodsell, http://doi.org/10.2210/rcsb_pdb/mom_2017_10)

Im Inneren der Zelle angekommen folgt dann „nur“ noch die Signaldomäne. Sie ist der am ausführlichsten untersuchte Teil der CARs. Sie besteht ebenfalls aus einem Teil des CD3-Antigens, das aus „normalen“ T-Zellen stammt. Die Aktivierung des CARs führt dazu, dass einige Tyrosin-Aminosäuren der Signaldomäne phosphoryliert, also chemisch mit einer Phosphatgruppe verknüpft werden. Phosphorylierungen fungieren in der Biologie häufig als Signalweiterleitung. So auch hier, denn die Phosphorylierung der Signaldomäne aktiviert die T-Zelle, die daraufhin die von ihr erkannte Tumorzelle abtötet. Das allein reicht aber oft nicht aus. Deshalb wurden in der „zweiten Generation“ von CARs co-stimulierende Domänen hinzugefügt. Diese stammen ebenfalls aus Immunzellen und haben dort im Prinzip die gleiche Aufgabe. Sie verstärken das Signal zur Aktivierung von T-Zellen, aber mit dem kleinen Unterschied, dass in natürlichen T-Zellen der T-Zell-Rezeptor und der Co-Stimulator zwei getrennte Proteine sind.

Antigene erkennen ohne Brimborium

Ein chimärer Antigenrezeptor besteht also aus vielen unterschiedlichen Immunzell-Proteinen, die „einfach“ zu einem Rezeptor kombiniert wurden. Aber wieso das Ganze, wenn auch natürlich vorkommende Immunzellen die einzelnen Proteine besitzen? Um das zu verstehen, müssen wir uns erstmal anschauen, wie T-Zellen normalerweise aktiviert werden:

Zuerst ein kleiner Disclaimer: Es gibt diverse unterschiedliche Arten von T-Zellen, und nur eine davon, die zytotoxischen T-Zellen (die auch so schön poetisch T-Killerzellen genannt werden) tötet wirklich von ihr erkannte infizierte oder maligne Zellen ab. Die anderen sind dafür zuständig, Signalmoleküle auszuschütten, die Immunantwort zu regulieren oder ein immunologisches Gedächtnis zu bilden. Behaltet also einfach im Hinterkopf, dass „Die T-Zelle tötet die erkannte Zelle ab“ eine starke Vereinfachung ist.

Aber wie funktioniert dieses Erkennen und Abtöten jetzt? Zu diesem Zweck haben die T-Zellen den T-Zell-Rezeptor (der – wie das meiste in der Immunologie – ganz schön kompliziert aufgebaut ist). Mit diesem Rezeptor können die T-Zellen Antigene erkennen. In diesem Fall sind das Bestandteile von infizierten oder entarteten Zellen. Der T-Zell-Rezeptor kann diese Antigene aber nicht einfach so erkennen, nein, sie müssen ihm stattdessen von der anderen Zelle präsentiert werden. Dafür gibt es spezielle Proteine, die MHC-I heißen. Mit deren Hilfe präsentieren Zellen Schnipsel von quasi allen Proteinen, die sich in ihrem Inneren befinden. Bindet jetzt der T-Zell-Rezeptor ein Antigen auf einem MHC-I-Komplex, dann kommen die oben schon erwähnten Co-Stimulatoren ins Spiel. Diese müssen auch noch ihre entsprechenden Gegenstücke auf der Antigen-präsentierenden Zelle binden. Und wenn das der Fall ist, dann weiß die T-Zelle, dass es sich bei der Antigen-präsentierenden Zelle z.B. um eine Tumorzelle handelt und tötet sie ab. (Oder entfaltet eine der anderen möglichen Effekte von T-Zellen).

Das Schöne an CAR-T-Zellen ist, dass sie dieses ganze Brimborium mit MHC-I und Co-Stimulatoren nicht brauchen. Sie können Antigene dank der CARs auch einfach so erkennen. Das ist auch gut so, denn manche Krebszellen verzichten einfach darauf, ihre Antigene mit MHC-I zu präsentieren und können deshalb nicht vom Immunsystem erkannt werden (das ganze nennt sich Immunevasion). Die CAR-T-Zellen ermöglichen es dem Immunsystem aber wieder, diese Tumorzellen trotzdem zu erkennen und zu bekämpfen.

Künstlerische Darstellung einer CAR-T-Zelle (blau), die mit ihren CARs (rot) eine Leukämiezelle (grün) erkennt und attackiert (Bild: PDB-101, D. Goodsell, http://doi.org/10.2210/rcsb_pdb/mom_2017_10)

Was CAR-T-Zellen können und was sie nicht können

Aktuell sind sechs CAR-T-Zelltherapien in der EU zugelassen. Sie erkennen eines der beiden Proteine CD19 und BCMA, die in B-Lymphozyten vorkommen. Daher werden diese CAR-T-Zelltherapien auch bei Tumorerkrankungen von B-Lymphozyten wie beispielsweise der akuten lymphatischen Leukämie eingesetzt. Diese Behandlungen sind zwar extrem teuer – mehrere hunderttausend Euro – aber auch oft die letzte Hoffnung für Patient:innen. Und tatsächlich erreichen die CAR-T-Zelltherapien zum Teil sehr beeindruckende Heilungsraten.

Aber wieso werden CAR-T-Zellen dann nicht für viel mehr Arten von Krebserkrankungen verwendet? Die CAR-T-Zelltherapie bringt auch einige Schwierigkeiten mit sich. Einerseits können die CAR-T-Zellen sehr drastische Nebenwirkungen und toxische Effekte haben. Eine der Nebenwirkungen, das manchmal sogar lebensbedrohliche Zytokin-Freisetzungssyndrom, entsteht vermutlich, weil die CAR-T-Zellen “zu gut” sind. Denn weil auf einmal massenhaft Tumorzellen absterben, werden sehr viele Botenstoffe freigesetzt, die beispielsweise Fieber und Atembeschwerden auslösen können.

Außerdem ist die Verwendung von CAR-T-Zellen bei soliden Tumoren eine besondere Herausforderung. Denn einerseits müssen die CAR-T-Zellen erstmal einen Weg finden, in diese Tumore eindringen zu können. Andererseits schaffen Tumore sich oft eine Umgebung, in der Immunreaktionen unterdrückt werden. Zudem sind die Antigene aus soliden Tumoren viel häufiger auch in gesunden Zellen vorhanden, so dass es zu on-target off-tumor Effekten kommen kann, bei denen die CAR-T-Zellen gesundes Gewebe angreifen.

Allogene und ausschaltbare CAR-T-Zellen

Welche Möglichkeiten gibt es, diese Probleme zu lösen? Eine mögliche Lösung für die hohen Kosten könnten sogenannte allogene CAR-T-Zellen sein. Denn bisherige CAR-T-Zelltherapeutika werden aus den eigenen Zellen von Patient:innen hergestellt. Daher ist das jedes Mal ein individueller Prozess. Die Zellen von externen Spender:innen zu verwendet würde es ermöglichen, CAR-T-Zellen schon im Voraus in größeren Mengen herzustellen. Außerdem wären sie dadurch sofort einsatzbereit, anstatt erst nach der individuellen Herstellung, während der die Erkrankung weiter fortschreiten kann. Allerdings müssen dafür neue Probleme gelöst werden. Denn die fremden T-Zellen könnten zu einer Graft-versus-Host-Reaktion führen, also einer zytotoxischen Reaktion auf die allogenen Zellen. Außerdem werden die allogenen CAR-T-Zellen schneller durch das Immunsystem von Patient:innen beseitigt.

Um das Problem der Toxizität zu lösen, können Veränderungen am CAR selbst vorgenommen werden. Die co-stimulierende Domäne hat zum Beispiel einen großen Einfluss auf die Entstehung des Zytokin-Freisetzungssyndrom. Und tatsächlich könnte es auch helfen, die Affinität des Rezeptors für das Antigen zu verringern. Das vermindert zwar etwas die Wirksamkeit, aber vor allem attackieren die CAR-T-Zellen dadurch kaum noch gesundes Gewebe, sondern nur noch Tumorzellen.

Eine sehr spannende Möglichkeit sind ausschaltbare CAR-T-Zellen. Sie können durch die Gabe eines anderen Stoffs ausgeschaltet werden, sobald zu starke Nebenwirkungen auftreten. Das hat allerdings den Nachteil, dass dann keine CAR-T-Zellen mehr vorhanden sind, um die ursprüngliche Erkrankung zu bekämpfen. Daher wären CAR-T-Zellen am besten, die reversibel ausgeschaltet werden können. Eine Möglichkeit dafür, die schon untersucht wurde, ist der Tyrosinkinasehemmer Dasatinib. Es verhindert, dass die CAR-T-Zellen aktiviert werden können. Sobald es allerdings nicht mehr gegeben wird, sind die Zellen wieder aktivierbar und einsatzbereit.

Fazit

Das war jetzt ein ziemlich langer Text, aber über CAR-T-Zelltherapie gibt es auch einfach viel zu sagen. Das Konzept ist super spannend, und die Möglichkeit, Immunzellen so zu verändern, dass sie gegen Tumorzellen vorgehen, ist ein enormer Erfolg in der Krebstherapie.

Trotzdem müssen wir Wege finden, um das Konzept breiter anwenden zu können, gerade für solide Tumore. Auch dafür existieren tatsächlich schon Ideen (z.B. probiotic-guided CAR-T-Zellen), wie auch für viele andere Möglichkeiten, die Hürden zu einer breiteren Anwendung zu überwinden. Die Forschung an CAR-T-Zellen geht auf jeden Fall weiter, und wir werden abwarten müssen, ob und welche weiteren CAR-T-Zelltherapeutika ihren Weg in die Klinik finden.

Falls euch dieser Text gefallen hat, dann abonniert doch gerne meinen Email-Newsletter. Damit verpasst ihr in Zukunft keine neuen Beiträge auf PharmBlog mehr. Und falls ihr noch mehr zu dem Thema lesen möchtet, empfehle ich euch diese Review, das allerdings auch schon von 2019 ist und daher die allerneuesten Themen möglichweise nicht abbildet.

Nobelpreis-Spezial: Physiologie oder Medizin 2023

Es ist wieder die Zeit des Jahres, zu der die Nobelpreise verkündet werden. Den Anfang gemacht hat heute – am 02.10.23 – der Nobelpreis für Physiologie oder Medizin, und ich denke, dass das Ergebnis für viele nicht sehr überraschend war. Denn gewonnen haben Katalin Karikó und Drew Weissman „für ihre Entdeckungen zu Modifikationen von Nukleobasen, die die Entwicklung von effektiven mRNA-Impfstoffen gegen COVID-19 ermöglichten“.

Die schnelle Entwicklung von Impfstoffen gegen COVID-19 während der Pandemie war ohne Frage ein unglaublicher Erfolg und hat Millionen von Menschenleben gerettet. Daher war es eigentlich auch nur eine Frage der Zeit, bis dafür auch ein Nobelpreis verliehen wird. Tatsächlich ist es aber doch recht ungewöhnlich, dass es diesen Preis so „früh“ nach der Entwicklung der Impfstoffe gibt, denn häufig vergehen nach der Leistung, die ausgezeichnet wird und der Preisverleihung deutlich mehr Jahre. Allerdings sind die Beweise, dass mRNA-Impfstoffe ein großer Erfolg und dieses Preises absolut würdig sind auch so überwältigend, dass diese Ausnahme wohl verständlich ist.

Ich persönlich hätte – nach der Argumentation von Lars Fischer in diesem Artikel – diesen Preis eher in der Kategorie Chemie gesehen, zusammen mit einer Auszeichnung für die chemische DNA-Synthese. Tatsächlich war das eine sehr häufige Prognose und jetzt bleibt es wohl spannend, wer stattdessen mit dem Chemie-Nobelpreis ausgezeichnet wird.

Das war jetzt aber genug des Vorgeplänkels. Schauen wir uns endlich die Wissenschaft an, für die Karikó und Weissman diesen Preis bekommen haben.

Nukleobasen und mRNA-Modifikationen

Grundsätzlich ist es keine neue Idee, RNA oder DNA für Impfstoffe einzusetzen, da das einige Vorteile gegenüber typischen Impfstoffen aus attenuierten oder inaktivierten Viren oder auch vektor-basierten Impfstoffen bietet (von denen eine billigere Produktion nicht der Unwichtigste ist). Lange Zeit war aber die Immunogenität dieser Impfstoffe ein großes Problem, neben einigen anderen Problemen mit ihrer Effektivität. Immunogenität bedeutet, dass sie eine starke Entzündungsreaktion auslösten und damit einfach unbrauchbar für den Einsatz als Impfstoff waren.

Das liegt daran, dass unsere Zellen eine eingebaute Abwehr gegen fremde RNA besitzen. Viele Viren haben nämlich ein Erbgut aus RNA, und diese virale (aber auch bakterielle) RNA erkennen und neutralisieren zu können ist extrem wichtig für unseren Schutz vor Infektionen. Daher gibt es in unseren Zellen Rezeptoren – die toll-like Rezeptoren, kurz TLRs – die diese Aufgabe übernehmen.

Karikó und Weissman haben mit ihren Teams erkannt, dass dieser Schutzmechanismus auch von in vitro-transkribierter mRNA ausgelöst wird. Das ist mRNA, die nicht aus Zellen stammt und eben jene, die für Impfstoffe eingesetzt wird. Denn die in vitro-transkribierte mRNA ist genauso wie virale und bakterielle mRNA wenig modifiziert. Eukaryoten wie wir Menschen hingegen verändern unsere mRNA ziemlich stark. Und an diesen Veränderungen unterscheidet unser Immunsystem unsere eigene von fremder mRNA.

RNA besteht im Prinzip aus einer Abfolge von vier Nukleobasen, die an einem Rückgrat aufgereiht sind. Das sind einmal Adenin, Guanin und Cytosin, genau wie bei der DNA. Wo bei der DNA aber die Base Thymin ist, hat die mRNA stattdessen die Base Uracil. Wie gesagt werden diese Basen von unseren Zellen noch zusätzlich verändert. Die entscheidende Idee für die mRNA-Impfstoffe war es also, auch die Basen der Impfstoff-mRNA zu verändern.

Karikó und Weissman entdeckten, dass die Modifikation von Uridin die Immunreaktion auf die in vitro-transkribierte mRNA fast vollständig verhinderte, und dass der Austausch von Uridin zu der Base Pseudouridin zusätzlich noch die Proteinexpression deutlich erhöhte. Dadurch entstehen nicht nur weniger Entzündungsreaktionen, sondern die Effektivität der Impfstoffe wurde auch erhöht, weil mehr des Antigens, für das die Impfstoff-mRNA codiert, hergestellt wird.

Strukturen von Uridin, Pseudouridin und N1-Methylpseudouridin (Kim et al. 2022, DOI: 10.1016/j.celrep.2022.111300)

Außerdem fanden die beiden Preisträger:innen heraus, dass bei der Herstellung der Impfstoff-mRNA auch kleine Mengen an doppelsträngiger RNA entstehen, die ebenfalls von toll-like Rezeptoren erkannt wird. Karikó und ihr Team entwickelten daraufhein eine Technik, um diese Verunreinigungen mittels HPLC zu entfernen.

Damit hatte der Siegeszug der mRNA-Modifikation für Impfstoffe begonnen, und auch die beiden mRNA-Impfstoffe gegen COVID-19 von BioNTech und Moderna enthalten diese Modifikationen. Bei ihnen kommt vor allem die modifizierte Base N1-Methylpseudouridin zum Einsatz, die sich als noch effektiver als Pseudouridin herausstellte.

Ich hoffe, das hat euch einen kleinen Überblick über die Wissenschaft hinter diesem Nobelpreis für Physiologie oder Medizin gegeben. Wenn ihr noch mehr erfahren wollt, kann ich euch wie immer die sehr ausführlichen Advanced Information auf der Webseite der Nobelpreise empfehlen, oder auch dieses Review zu mRNA-Impfstoffen von 2021.

Natürlich wird es auch zu dem Chemie-Nobelpreis 2023 einen Text von mir geben, und bis dahin könnt ihr gerne meinen Newsletter abonnieren, damit ihr keinen Blogbeitrag mehr verpasst.

Gratulation an Katalin Karikó und Drew Weissman!

Biomolekül des Monats: Steroide und Isoprenoide

Quizfrage: Was haben Cholesterin, Vitamin E, die ätherische Ölkomponente Limonen und Testosteron gemeinsam? Ihre Biosynthese beginnt mit ein und dem selben Stoff. Zumindest formal gesehen ist dieser Stoff Isopren, weshalb sie auch alle zu der Stoffklasse der Isoprenoide gehören.

Die Isoprenoide

Isopren und die Isoprenoide sind meine Biomoleküle des Monats. Wir werden uns anschauen, weshalb der Vorläufer der Isporenoide eben nur formal gesehen das Isopren ist, wie die Biosynthese funktioniert und warum vor allem die Untergruppe der Steroide extrem wichtig für unsere Gesundheit und die Pharmazie ist.

Isopren ist ein relativ kleiner Kohlenwasserstoff mit zwei Doppelbindungen, der – wenn man ihn im richtigen Winkel betrachtet – ein bisschen aussieht wie ein Pferd. Er kommt in der Natur ziemlich häufig vor, aber eben nicht (anders als der Name vermuten lässt) als Ausgangsstoff für die Biosynthese der Isoprenoide.

Struktur von Isopren

Dafür werden nämlich zwei Stoffe verwendet, die man als aktiviertes – also als für eine chemische Reaktion zugänglich gemachtes – Isopren bezeichnen könnte: IPP und DMAPP. Das steht für Isopentylpyrophosphat und Dimethylallylpyrophosphat. Aber weil ich mich dabei immer mindestens einmal verschreibe, bleibe ich bei den Abkürzungen.

Es gibt wirklich sehr viele Isoprenoide, und sie kommen in jeder Domäne des Lebens vor. Gerade Pflanzen bilden viele Terpene, eine Untergruppe der Isoprenoide, zu der z.B. ätherische Öle und einige Vitamine (und Vitamin-Vorläufer) gehören.

Aber ich möchte mich hier eher auf eine sehr wichtige Art der tierischen (und damit auch die menschlichen) Isoprenoide konzentrieren: die Steroide.

Die Steroide

Steroide entstehen im Prinzip dadurch, dass erst ein Molekül IPP und ein Molekül DMAPP miteinander verknüpft werden. Danach werden einfach nur immer mehr IPP-Einheiten angehängt, bis eine ziemlich lange Kette entstanden ist, das Squalen. Dann wird aus dieser langen Kette ein Ringsystem mit fünf Ringen gebildet, das Grundgerüst aller Steroide.

Und an dieses Grundgerüst können dann diverse „Dekorationen“, also unterschiedliche chemische Gruppen, angehängt werden. Erstmal entsteht daraus Cholesterin. Die meisten Menschen kennen Cholesterin wahrscheinlich als Risikofaktor für Herzinfarkte oder Schlaganfälle. Und das ist es auch, wenn die Konzentration an „schlechtem Cholesterin“ – dem Lipoprotein LDL – im Blut zu hoch ist. Aber Cholesterin ist auch ein extrem wichtiger Bestandteil unserer Zellmembranen, denn es verleiht ihnen unter anderem ihre Fluidität.

Und außerdem entstehen aus Cholesterin auch alle Steroidhormone. Dazu gehört das Stresshormon Cortisol, von dem wahrscheinlich auch alle schon einmal gehört haben. Die Ausschüttung von Cortisol hat sehr viele verschiedene Wirkungen auf den Körper, beispielsweise fördert es den katabolen (also den abbauenden) Stoffwechsel oder beeinflusst den Blutdruck. Und natürlich sind Cortisol und seine synthetischen Derivate aus der Arzneitherapie nicht mehr wegzudenken, wo sie extrem erfolgreich zur Entzündungshemmung verwendet werden.

Übersicht über die Biosynthese der Steroidhormone, die alle aus Cholesterol gebildet werden (Bild: Mikael Häggström derivative work (german translation): Benff, CC BY-SA 3.0)

Sehr (wirklich sehr) ähnlich zum Cortisol ist das Aldosteron, das in der Niere wirkt. Dort hemmt es die Ausscheidung von Na+-Ionen, und durch den resultierenden osmotischen Druck auch die Ausscheidung von Wasser. Dadurch wird sowohl der Elektrolythaushalt als auch der Blutdruck reguliert. Und auch hier kann natürlich mit Arzneistoffen eingegriffen werden, mit dem Aldosteron-Agonisten Fludrocortison oder verschiedenen Antagonisten, die als Diuretika eingesetzt werden.

Letztendlich sind da dann noch die Sexualhormone, die auch zu den Steroiden zählen und aus Cholesterin entstehen. Die Sexualhormone und alle in diesem Bereich wirkenden Arzneistoffe sind selbst ein so großes Thema, dass sie wohl einen eigenen Text verdienen (weshalb sie bald auch einen eigenen Beitrag von mir bekommen).

Das war ein (sehr kleiner) Überblick über die Isoprenoide und Steroide. Natürlich gäbe es noch weit mehr zu sagen, aber für den Moment möchte ich nur noch eine Sache erwähnen. Denn was wäre ein Text über Isoprenoide, ohne die Statine zu erwähnen. Das ist eine Klasse von Arzneistoffen, die sehr früh in der Biosynthese der Isoprenoide eingreifen, bei dem Enzym HMG-CoA-Reduktase. Das ist zuständig für die Herstellung von Mevalonat, aus dem dann wiederum die beiden Bausteine IPP und DMAPP gebildet werden. Durch die Hemmung der Herstellung dieser Bausteine wird die körpereigene Cholesterin-Synthese heruntergefahren und der LDL- Spiegel, also das „schlechte Cholesterin“ nimmt ab. Das macht die Statine sehr wichtig in der Behandlung und Prophylaxe von Herz-Kreislauf-Erkrankungen.

Das war es jetzt aber wirklich mit diesem Biomolekül (oder eher diesen Biomolekülen) des Monats. Wenn es euch gefallen hat, schaut euch doch gerne die Texte der letzten Monate an, oder abonniert meinen Newsletter, um nichts mehr zu verpassen.

« Older posts

© 2024 PharmBlog

Theme by Anders NorenUp ↑

WordPress Cookie Notice by Real Cookie Banner