Ein Blog über die Wissenschaft hinter Arzneimitteln

Author: PharmBlog (Page 1 of 4)

Wie gut wirkt eine Behandlung – Klinische Studien verstehen, Teil 2

Nachdem wir im ersten Teil dieses Texts die Grundlagen zur Interpretation klinischer Studien wie Kontrollgruppen, Randomisierung und Verblindung abgedeckt haben, gehen wir heute einen Schritt weiter. Wir tauchen tiefer in die Bedeutung des Patientenkollektivs und die Rolle von Endpunkten ein. Warum ist es wichtig, wer an einer Studie teilnimmt? Wie beeinflussen dropouts die Aussagekraft der Ergebnisse? Und was genau sind klinische und Surrogatendpunkte?

In diesem Teil schauen wir uns an, wie man den Behandlungserfolg misst und warum das oft komplizierter ist, als es auf den ersten Blick scheint. Wir nehmen wieder die Beispielstudie „Nilotinib vs. Imatinib“ unter die Lupe und lernen dabei, worauf man achten sollte, um die Ergebnisse einer Studie korrekt einzuordnen. Am Ende dieses kleinen Leitfadens werdet ihr hoffentlich noch besser gerüstet sein, um klinische Studien kritisch und fundiert zu bewerten.

Das Patientenkollektiv und wer davon übrig bliebt

Bevor wir uns ansehen, wie der Behandlungserfolg überhaupt gemessen wird, müssen wir uns erst nochmal auf das Patientenkollektiv konzentrieren. Denn welche Teilnehmer:innen für eine Studie ausgewählt wurden hat einen großen Einfluss auf ihre Aussage.

Wie alt sind die Patient:innen, welches Geschlecht haben sie, wie weit ist ihre Erkrankung fortgeschritten, wurden sie vorher schon (unerfolgreich) behandelt, haben sie noch andere Erkrankungen? All das sind Fragen, die man stellen sollte, vor allem wenn man die Ergebnisse der Studie auf andere Patient:innen übertragen oder verallgemeinern möchte.

Außerdem lohnt es sich anzuschauen, wie viele Teilnehmer:innen bis zum Ende an der Studie teilgenommen haben. In den meisten Studien gibt es dropouts, Patient:innen, die aus welchem Grund auch immer nicht länger Teil der Studie sind. Das kann daran liegen, dass sie sich nicht an das Behandlungsschema gehalten haben und ausgeschlossen wurden, sie können zu starke Nebenwirkungen haben, sie können eine weitere Erkrankung bekommen haben, aufgrund derer sie ausgeschlossen werden mussten, oder sie können schlicht und ergreifend verstorben sein.

Wenn am Ende nur der Behandlungserfolg der Teilnehmer:innen ausgewertet wird, die bis zum Ende dabei waren, dann ignoriert das einen Teil der medizinischen Realität. Es halten sich nämlich auch „echte“ Patient:innen nicht an Behandlungspläne oder brechen eine Behandlung ab, wenn die Nebenwirkungen zu stark werden. Werden diese Fälle nicht berücksichtigt, wird wieder einmal der Behandlungserfolg überschätzt. Daher sollten Studien idealerweise eine intention-to-treat Analyse haben, bei der die Auswertung anhand aller Patient:innen erfolgt.

Unsere Beispielstudie „Nilotinib vs. Imatinib“ umfasst ursprünglich 846 Teilnehmer:innen, von denen 10 gar nicht erst behandelt wurden. Von den 836 behandelten Patient:innen haben 156 die Studie abgebrochen, meistens wegen starker Nebenwirkungen. Aber auch weil die Behandlung nicht angeschlagen hat oder die Teilnehmer:innen ihre Zustimmung widerufen haben. In der Analyse der Ergebnisse wurden zwar die 10 nicht behandelten Patient:innen nicht mit eingeschlossen, aber immerhin alle, die die Behandlung frühzeitig beendet haben.

Intention-to-treat Population von “Nilotinib vs. Imatinib”

Kurz zusammengefasst: Gerade um abschätzen zu können, für welche Menschen eine Behandlung vorteilhaft ist, lohnt sich ein Blick in das Patientenkollektiv der Studie. Und wenn man schonmal dabei ist, sollte man auch nachsehen, wie viele dropouts es gab und wie damit umgegangen wurde.

Die Bedeutung von Endpunkten bei klinischen Studien

Wenn eine klinische Studie durchgeführt wird, dann soll damit in der Regel ja gezeigt werden, wie gut die untersuchte Behandlung funktioniert. Dazu muss etwas gemessen werden, das belegt, ob die Behandlung erfolgreich war, und dieses etwas bezeichnet man als Endpunkt.

Letztendlich geht es bei den meisten Arzneimitteln darum, dass die Patient:innen durch ihre Anwendung wieder gesund werden, sich ihr Zustand nicht oder langsamer verschlechtert, sich ihr Befinden bessert usw. – das ist es, was die Patient:innen interessiert. Solche Kategorien können aber ganz schön schwierig zu messen sein, weshalb meist besser definierbare Endpunkte verwendet werden. Die vollständige Remission, also das komplette Verschwinden z.B. einer Krebserkrankung wäre ein Beispiel dafür. Ein ähnliches Beispiel ist das progressionsfreie Überleben, also Überleben ohne eine Verschlimmerung der Erkrankung. Diese beiden Endpunkte sind sogenannte klinische Endpunkte. Sie sind direkt an den Verlauf der Erkrankung geknüpft und für Patient:innen so erlebbar.

Im Gegensatz zu den klinischen Endpunkten stehen die Surrogatendpunkte. Sie sind nicht direkt für Patient:innen spürbar und dienen als Ersatz – als Surrogat – für klinische Endpunkte. Meistens sind das Biomarker, die nur mittelbar mit dem Verlauf der Erkrankung verknüpft sind. Ein solcher Biomarker ist beispielsweise das C-reaktive Protein, das bei Entzündungen in den Blutkreislauf abgegeben wird. Seine Konzentration korreliert also mit der Stärke der Entzündung und es dient deshalb als Entzündungsmarker.

Bei „Nilotinib vs. Imatinib“ wurden auch Biomarker als Surratendpunkte verwendet. Der primäre Endpunkt für die Wirksamkeit – der Endpunkt, der allein über die Wirksamkeit entscheidet – war die major molecular response nach zwölf Monaten. Im Prinzip ist das nichts anderes als eine knackige Bezeichnung für „Laborparameter, die das Anschlagen der Behandlung zeigen“. Das sagt uns jetzt noch nicht so viel; um diesen Endpunkt also beurteilen zu können, müssen wir uns etwas genauer anschauen, was dafür tatsächlich gemessen wurde.

Um die major molecular response zu messen, wurde bei den Patienten die Transkription von BCR-ABL bestimmt. BCR-ABL ist ein Gen, das durch eine Mutation der Chromosomen 9 und 22 entsteht. Es codiert für das BCR-ABL-Protein, das zur unkontrollierten Vermehrung der betroffenen Zelle führt und dadurch unter anderem die chronisch myeloische Leukämie auslöst. Da BCR-ABL damit kausal für die Entstehung der Tumorzellen verantwortlich ist, ist es als Surrogatendpunkt ziemlich gut geeignet. So ein kausaler Zusammenhang ist aber nicht bei allen Surrogatendpunkten vorhanden, was einer der Hauptgründe ist, weshalb man sie mit Vorsicht behandeln sollte.

Wie viele andere Studien auch hatte „Nilotinib vs. Imatinib“ sekundäre Endpunkte. Dazu gehört unter anderem die complete cytogenetic response. Das heißt, dass (quasi) keine Tumorzellen im Knochenmark mehr vorhanden sind – ein Surrogatendpunkt, der aber direkt mit dem Verlauf der Erkrankung und dem Überleben der Patient:innen verknüpft ist. Solche sekundären Endpunkte sind nicht dazu gedacht, alleine die Wirksamkeit der neuen Therapie zu beweisen. Stattdessen sollen sie mehr Details über die untersuchte Behandlung liefern.

Signifikant – aber auch relevant?

Da wir jetzt geklärt haben, was Endpunkte sind, können wir uns dem widmen, was uns wirklich interessiert, nämlich die Ergebnisse einer Studie. Dabei geht es vor allem um drei Dinge: Wurden die Endpunkte erreicht? Ist der Effekt statistisch signifikant? Und ist er dann auch klinisch relevant?

Statistische Tests werden dazu verwendet, zufällige Schwankungen im Ergebnis von echten, durch die Behandlung ausgelösten Effekten zu unterscheiden. Ist die Wahrscheinlichkeit, dass Verumgruppe (die eine neue Behandlung bekommt) und Kontrollgruppe gleich sind – und damit die Unterschiede zwischen den Ergebnissen nur Zufall – klein genug, bezeichnet man das als statistisch signifikant.

Einen extrem großen Einfluss auf das Ergebnis hat die Anzahl der Studienteilnehmer:innen. Je weniger Teilnehmer:innen, desto größer werden die zufälligen Abweichungen sein. Daher haben Studien mit einer sehr kleinen Teilnehmer:innenzahl auch weniger Aussagekraft. Im Gegenzug kann eine große Zahl an Teilnehmer:innen dafür sorgen, dass selbst sehr kleine positive Ergebnisse trotzdem signifikant sind. Und das ist auch genau der Grund, dass man sich die Effektstärke immer genauer ansehen sollte – selbst wenn der Effekt statistisch signifikant ist.

Zusätzlich dazu, dass der Effekt der neuen Behandlung signifikant sein sollte, muss er natürlich auch tatsächlich merkbar sein. Ein Effekt, der zwar unzweifelhaft vorhanden ist, aber so klein, dass er Patinet:innen keinen wirklichen Vorteil bringt, ist kein Grund, ein neues Arzneimittel zuzulassen. Gerade weil jedes Arzneimittel auch immer das Risiko für Nebenwirkungen birgt.

Ergebnis des primären Endpunkts major molecular response in “Nilotinib vs. Imatinib”

Unsere Beispielstudie „Nilotinib vs. Imatinib“ berichtet, dass 44% der Teilnehmer:innen mit Nilotinib (300 mg) den primären Endpunkt (die major molecular response) erreichen, im Gegensatz zu 22% in der Kontrollgruppe. Und zwar mit einem p-Wert kleiner als 0,001 – was einer Wahrscheinlichkeit von 99,9% entspricht, dass der Unterschied kein Zufall ist. Das ist schonmal ziemlich gut, aber ist der Effekt auch klinisch relevant? Tja, das ist noch so ein Problem mit Surrogatendpunkten. Es ist für Laien auf dem Gebiet (und hier bin ich genauso Laie wie die meisten anderen) ziemlich schwierig abzuschätzen, was dieser Effekt für die Patient:innen tatsächlich bedeutet.

Ein kleiner Test

Damit können wir die Sache im Prinzip abschließen. Natürlich gäbe es noch so viel mehr, was wir uns anschauen können, aber als erster Überblick soll das erst einmal genügen. Und als kleiner Test können wir versuchen, „Nilotinib vs. Imatinib“ anhand der beschriebenen Kriterien einzuordnen.

Im Großen und Ganzen ist „Nilotinib vs. Imatinib“ eine solide Studie mit guter Aussagekraft. Sie erfüllt die Bedingungen, die wir an kontrollierte randomisierte Studien stellen: Es gibt eine Kontrollgruppe, mit der die neue Behandlung verglichen werden kann, und die Zuteilung in die Gruppen erfolgt zufällig. Damit sind die größten Fehlerquellen so gut es geht minimiert. Eine andere häufige Ursache für einen möglichen Bias ist allerdings nicht beseitigt, denn die Studie ist nicht verblindet. Teilnehmer:innen wissen genauso wie die behandelnden und auswertenden Personen, in welcher Gruppe sie sind. Da nachgewiesen ist, dass dieses Wissen oft zur Überschätzung des Effekts einer neuen Behandlung führt, müssen wir hier definitiv vorsichtig sein!

Die Wirksamkeit der Behandlung wird zwar anhand von Surrogatendpunkten bewertet, die prinzipiell weniger aussagekräftig sind als klinische Endpunkte. Allerdings stehen die gemessenen Endpunkte in einem direkten kausalen Zusammenhang zur Erkrankung, was trotzdem eine gute Aussagekraft ohne allzu viele Annahmen ermöglicht. In der Behandlungsgruppe erreichen doppelt so viele Patient:innen den primären Endpunkt der major molecular response. Da diese so direkt mit dem Verlauf der Erkrankung verbunden ist, können wir annehmen, dass das auch zu einer spürbaren Verbesserung für die Patient:innen führt. Die Ergebnisse wurden als intention-to-treat-Analyse ausgewertet. Damit wurden also auch alle dropouts, bei denen die Behandlung vorzeitig beendet wurde, mit in die Auswertung einbezogen.

Die Patient:innen in der Studie haben ihre CML-Diagnose maximal 6 Monate früher erhalten. Sie durften vorher fast keine andere Behandlung erhalten haben, nur eine bestimmte Schwere der Erkrankung aufweisen, keine eingeschränkte Herzfunktion haben und viele andere Arzneimittel nicht gleichzeitig einnehmen. Das schränkt natürlich ziemlich ein, und um die Ergebnisse auf eine Patient:innengruppen zu übertragen, wären strenggenommen mehr Studien nötig.

Aber mehr Studien sind sowieso nötig, denn „eine Studie ist keine Studie“, wie man so schön sagt. Die beste Aussagekraft haben eine Vielzahl an Studien, die zu ähnlichen Ergebnissen kommen (und dann z.B. in einer sogenannten Metaanalyse zusammengefasst werden).

Ich hoffe, ihr habt jetzt einige Werkzeuge zur Interpretation von klinischen Studien mehr in eurem metaphorischen Werkzeugkasten. Wenn ihr euch weiter informieren wollt, nutzt doch gerne die verlinkte Literatur hier und im ersten Teil als Ausgangspunkt. Und wenn ihr hier keinen neuen Blogpost verpassen wollt, abonniert am besten meinen Newsletter. Ansonsten empfehlt diesen kleinen Leitfaden zur Interpretation klinischer Studien auch gerne weiter.

Wie man klinische Studien liest, Teil 1 – Gute Studien, Schlechte Studien

Klinische Studien sind eines der wichtigsten Werkzeuge der evidenzbasierten Medizin. Stellt euch einfach mal vor, ihr habt ein revolutionäres neues Arzneimittel entwickelt. Ihr seid euch sicher, dass es extrem wirksam und super verträglich ist. Aber wie könnt ihr andere davon überzeugen? Na klar, ihr müsst es testen, und zwar auf eine Art und Weise, die möglichst alle Fehler ausschließt, die das Ergebnis eures Tests verfälschen könnten. Und genau dafür sind klinische Studien da.

Das Schöne daran ist, dass nicht nur ihr damit die Welt von eurem revolutionären neuen Arzneimittel überzeugen könnt. Wenn ihr wisst, wie man solche Studien liest und interpretiert könnt ihr auch beurteilen, wie gut alle anderen Behandlungen sind und ob nicht doch jemand übertrieben hat, was die Wirksamkeit einer (Arznei-)Therapie angeht.

Kurzum: Das Wissen über klinische Studien ist die Tür zur evidenzbasierten Medizin und die beste Möglichkeit, Wirksames von Unwirksamem zu unterschieden. Daher möchte ich euch in dieser zweiteiligen Reihe die nötigen Werkzeuge an die Hand geben, damit ihr klinische Studien lesen und beurteilen könnt. Ich konzentriere mich dabei zwar auf Studien über Arzneimittel, aber grundsätzlich könnt ihr die gleichen Prinzipien auch auf andere Behandlungsmethoden übertragen.

Klinische Studie oder nicht?

Wir sollten damit anfangen, was klinische Studien überhaupt sind – und was nicht. Klinische Studien sind experimentelle Studien, um die Wirksamkeit von Arzneimitteln zu kontrollieren. Epidemiologische Studien, in denen die Forschung nicht in einem experimentellen Setting stattfindet sondern Gruppen von Menschen ausschließlich beobachtet werden, sind damit keine klinischen Studien.

Außerdem finden klinische Studien ausschließlich an Menschen statt. Tierversuche, Studien in Zellen oder Organoiden oder sogenannte ex vivo Versuche mit isolierten Organen gehören hingegen zu den präklinischen Studien. Solche präklinischen Studien sind aber auch ziemlich wichtig und liefern beispielsweise toxikologische Daten, um zu entscheiden, ob eine Studie mit menschlichen Proband:innen überhaupt möglich ist.

Die allermeisten klinischen Studien werden für die Zulassung neuer Arzneimittel durchgeführt. Und solche Zulassungsstudien unterschieden sich sehr, je nachdem in welcher Phase sie sind: Phase I-Studien werden an einer kleinen Zahl gesunder Proband:innen durchgeführt, vor allem um die Sicherheit des Arzneimittels nachzuweisen. In Phase II-Studien kommen nun erstmals erkrankte Patient:innen zum Einsatz, aber wieder nur relativ wenige. Hier wird zum ersten Mal die Wirksamkeit in Menschen untersucht, wenn auch nur auf einem sehr grundlegenden Level, um zum Beispiel eine angemessene Dosis zu finden. Und dann kommen schon die Studien der Phase III, die mit deutlich mehr Patient:innen durchgeführt werden und einen Wirksamkeitsnachweis für die Zulassung eines Arzneimittels erbringen können.

Es gibt außerdem noch Phase IV-Studien, die typischerweise nach der Zulassung gemacht werden, aber die lassen wir mal beiseite. Auf jeden Fall seht ihr, dass „klinische Studie“ ein ziemlich weiter Begriff ist, der ganz unterschiedliche Ziele und Methoden einschließt.

Lasst uns daher tiefer eintauchen in die Welt der klinischen Studien und herausfinden, wie sie funktionieren und was eine gute von einer schlechten Studie unterscheidet.

Die Kontrollgruppe

Es gibt unzählige verschiedene Möglichkeiten des Studiendesigns, die wir uns hier unmöglich alle anschauen können. Deshalb konzentrieren wir uns auf die randomisierten kontrollierten Studien (kurz RCT), die quasi den Goldstandard darstellen. Und damit das ganze etwas weniger Abstrakt ist, schauen wir uns ein konkretes Beispiel an: „Nilotinib versus Imatinib for Newly Diagnosed Chronic Myeloid Leukemia“ von Saglio et al. aus dem Jahr 2010.

Nur ganz kurz, damit ihr auch wisst, worum es dabei geht: Nilotinib und Imatinib sind Arzneistoffe aus der Gruppe der Tyrosinkinase-Inhibitoren, die bei vielen Tumorerkrankungen verwendet werden. Eine davon ist die chronisch myeloische Leukämie, eine Tumorerkrankung der blutbildenden Stammzellen.

Nach diesem Einschub können wir uns jetzt mit der ersten namensgebenden Eigenschaft der randomisierten kontrollierten Studien beschäftigen, der Kontrollgruppe. Denn um die Wirkung eines Stoffes zu beurteilen, muss man ihn mit etwas vergleichen können. Im Fall unserer Studie hier steckt die Kontrollgruppe auch schon im Titel – Nilotinib versus Imatinib. Das bedeutet also, dass Nilotinib der neue Wirkstoff ist, der untersucht werden soll, während es sich bei Imatinib um die Kontrolle handelt.

Woran vermutlich die meisten Menschen bei einer Kontrollgruppe denken sind Placebokontrollen. Sie sind dazu gedacht, dass Kontexteffekte wie der Placeboeffekt das Ergebnis der Studie nicht verfälschen. Allerdings können nicht alle Studien eine Placebokontrolle verwenden. Stellt euch doch mal vor, Patient:innen mit einer potentiell tödlichen Krankheit würden, nur weil sie in der Kontrollgruppe sind, ein unwirksames Placebo bekommen statt einer Behandlung. Deshalb wird als Kontrollgruppe oft eine bereits etablierte Behandlung verwendet – so auch in unserem Beispiel mit Imatinib.

In den meisten Fällen soll dabei gezeigt werden, dass die neue Behandlung der Kontrolle überlegen ist, z.B. dass die Behandlung Nilotinib besser ist als mit Imatinib (was genau mit besser gemeint ist, ist auch sehr wichtig, und dem widmen wir uns ausführlich in Teil 2). Es gibt auch Studien, die eine Nicht-Unterlegenheit nachweisen wollen, also dass die neue Behandlung mindestens genauso gut ist wie die Kontrolle. Das ist zum Beispiel der Fall, wenn die Behandlung vereinfacht oder verkürzt werden soll. Solche Studien sind allerdings seltener – und bei einem Placebo als Kontrolle wird natürlich immer die Überlegenheit untersucht.

Wenn ihr also eine klinische Studie vor euch liegen habt, dann schaut als erstes, ob es eine Kontrollgruppe gibt – und wenn ja, welche. Denn ohne Kontrolle kann niemals wirklich nachgewiesen werden, ob der beobachtete Effekt (inklusive Nebenwirkungen) tatsächlich von der neuen Behandlung stammt und nicht durch den Placeboeffekt, eine natürliche Besserung der Erkrankung oder eine andere Quelle verursacht wird. Außerdem sollte die Kontrolle zur Behandlung passen. Eine Studie, bei der eine Gruppe eine Infusion bekommt und die andere nur Tabletten schlucken muss wäre zum Beispiel nicht sauber gemacht.

Der Zufall entscheidet

Der zweite entscheidende Faktor, der eine Studie zur randomisierten kontrollierten Studie macht, ist die Randomisierung. Das bedeutet, dass die Teilnehmer:innen zufällig auf die Kontrollgruppe und die Verumgruppe (so nennt man die Gruppe auch, welche die neue Behandlung bekommt) verteilt werden.

Ohne diese zufällige Aufteilung könnten die Forschenden ja diejenigen Patient:innen, denen es sowieso besser geht, der Verumgruppe zuteilen und jene, denen es schlechter geht, der Kontrollgruppe. Und Oh Wunder – am Ende geht es der Gruppe mit der neuen Behandlung insgesamt besser. Aber niemand kann wissen, ob das tatsächlich an der Behandlung liegt oder nicht eher an der fehlerhaften Aufteilung der Teilnehmer:innen.

Auch in unserer Beispielstudie wurde randomisiert. Die Patient:innen wurden zufällig in zwei Verumgruppen mit unterschiedlicher Dosis und eine Kontrollgruppe aufgeteilt.

Dass und wie randomisiert wurde sollte also immer im Methodenteil einer Studie zu finden sein, selbst wenn euch die Randomisierungsmethode an sich nichts sagt.

Wer ist alles verblindet

Ein weiteres Qualitätsmerkmal für klinische Studien ist die Verblindung. Dabei geht es darum, dass die an der Studie beteiligten Personen nicht wissen, wer in welcher Gruppe ist. Ihr habt bestimmt bemerkt, dass ich „an der Studie beteiligte Personen“ geschrieben habe und nicht Teilnehmer:innen. Denn idealerweise wissen nicht nur die Patient:innen nicht, in welcher Gruppe sie sind, sondern auch die behandelnden und die auswertenden Personen. Das bezeichnet man dann als einfache (nur Teilnehmer:innen), doppelte (Teilnehmer:innen + behandelnde Personen) oder dreifache Verblindung (alle).

Bei den Teilnehmer:innen geht es wieder um Kontexteffekte: Wenn Patient:innen wissen, dass sie nur ein Placebo bekommen, könnte der Placeboeffekt natürlich deutlich schwächer ausgeprägt sein. Und auch wenn sie wissen, dass sie Teil der Kontrollgruppe mit einer Standardbehandlung sind, kann sich das auf ihre Überzeugung auswirken, wirklich die wirksamste Therapie zu bekommen (oder sogar andersherum, wenn sie dem neuen Arzneistoff eher skeptisch gegenüberstehen).

Die Verblindung von behandelnden und auswertenden Personen soll Kontexteffekte und Bestätigungsfehler – confirmation bias – minimieren. Schließlich wünschen sich die Forscher:innen oft, dass ihre neue Behandlung auch funktioniert und treten vielleicht bei der Behandlung mit dem neuen Arzneimittel zuversichtlicher oder möglicherweise auch nervöser auf. Das kann wiederum Einfluss auf die Patient:innen haben. Andererseits könnten die Forscher:innen durch diesen Wunsch (unbewusst) eher Erkenntnisse berücksichtigen, die ihre Erwartungen bestärken. Aus diesen Gründen sollten auch sie verblindet sein.

Wenn wir uns jetzt wieder „Nilotinib vs. Imatinib“ ansehen, dann lesen wir nichts von einer Verblindung. Stattdessen steht dort open label, was im Prinzip nur bedeutet, dass keine Verblindung durchgeführt wurde und alle Teilnehmer:innen und Forscher:innen wussten, wer in welcher Gruppe ist. Das ist noch kein Grund, die Studie für nutzlos zu erklären, aber man sollte sich dieser Tatsache schon bewusst sein. Denn Studien ohne Verblindung überschätzen den Effekt einer Behandlung regelmäßig. Es wäre also nicht unvernünftig zu denken, dass auch der Behandlungserfolg bei „Nilotinib vs. Imatinib“ als etwas zu hoch eingeschätzt wird.

Außerdem wäre es noch ideal, wenn eine Studie, die verblindet durchgeführt wurde, auch über den Erfolg der Verblindung berichtet – also z.B. ob nicht doch einige Teilnehmer:innen herausgefunden haben, in welcher Gruppe sie sind.

Die Verblindung ist somit auch ein wichtiger Faktor, um die Qualität von klinischen Studien einzuschätzen, sowohl ob überhaupt verblindet wurde als auch wer – nur die Patient:innen oder auch die durchführenden Personen.

to be continued…

Eine zufällige Aufteilung in Gruppen, die jeweils eine Kontrolle oder den untersuchten Arzneistoff erhalten, macht also die randomisierten kontrollierten Studien aus. Sie sind die beste Methode um sicherzugehen, dass in der Studie aufgetretene Effekte – positive wie negative – tatsächlich von der Behandlung stammen und um gleichzeitig möglichst viele Fehlerquellen auszuschließen.

Das sind zwar die grundlegenden Aspekte des Studiendesigns, aber es gibt noch einiges mehr zu beachten, um eine Studie zu beurteilen. Zum Beispiel, wie viele und welche Patient:innen teilgenommen haben, wie der Erfolg der Behandlung überhaupt gemessen wurde und wie groß dieser Effekt dann war. Darum geht es dann aber im zweiten Teil.

Falls ihr keinen Beitrag mehr verpassen wollt, abonniert doch gerne meinen Email-Newsletter. Und falls euch dieser Post gefallen hat, teilt ihn gerne mit Menschen, die sich auch dafür interessieren.

AlphaFold – Was kann die “Wunder-KI” wirklich?

Vor einigen Tagen wurde AlphaFold 3 veröffentlicht, ein KI-Werkzeug zur Vorhersage von Proteinstrukturen. Die Zeit schreibt dazu „Eine KI die wirklich hilft“ oder „KI sagt Struktur aller Moleküle des Lebens voraus“, der Standard nennt es die “Wunder-KI“. Auch in der Wissenschaft ist das Lob für die Fähigkeiten von AlphaFold groß, es gibt jedoch auch einige skeptische Stimmen.

Aber was ist AlphaFold eigentlich genau, was bringt es und was kann es wirklich? Darauf werde ich in diesem Text einen kritischen Blick werfen.

Wieso sind Proteinstrukturen so wichtig?

Eins erstmal vorneweg: AlphaFold und andere KIs zur Vorhersage von Proteinstrukturen sind extrem beeindruckend. Die dreidimensionale Struktur von Proteinen ist kompliziert, und eine Möglichkeit, sie verlässlich vorherzusagen, war lange ein unerfüllbarer Traum. Aber wie verlässlich sind diese KIs wirklich? Wie funktioniert das? Und vor allem, für was brauchen wir diese Proteinstrukturen überhaupt?

Beschäftigen wir uns zuerst mit der letzten dieser Fragen: Wofür brauchen wir die Struktur von Proteinen? Im Prinzip ist es ganz einfach, denn die Struktur bestimmt bei Proteinen zum Großteil die Funktion.

Proteine bestehen aus Aminosäuren, die eine hinter der anderen aufgereiht sind. Davon gibt es – mit ein paar Ausnahmen – 20 Stück. Würden die alle nur in einer langen Kette aneinander hängen, wären die möglichen Fähigkeiten von Proteinen sehr begrenzt. Wenn wir uns aber echte Proteine anschauen, können die jedoch sehr, sehr viel. Sie können als Enzyme biochemische Reaktionen katalysieren, sie können als Rezeptoren Botenstoffe erkennen, sie können als Transporter Stoffe über Zellmembranen transportieren und sie können Festigkeit und Halt geben – denkt da nur an eure Nägel.

Diese Fähigkeiten von Proteinen entstehen dadurch, dass ihre 3D-Struktur die richtigen Aminosäuren an die richtige Stelle bringt. Dort können sie dann miteinander und ihrer Umgebung interagieren und beispielsweise eine Bindetasche für andere Moleküle bilden.

Wenn wir also verstehen wollen, wie Proteine funktionieren – und das müssen wir vor allem auch, weil darauf die meisten unserer Arzneimittel basieren – müssen wir ihre Struktur verstehen.

Was ist AlphaFold 3?

Kommen wir jetzt zum „Star“ dieses Textes – AlphaFold. AlphaFold ist ein KI-Werkzeug zur a priori Vorhersage von Proteinstrukturen (seit AlphaFold 3 werden aber auch andere Biomoleküle wie z.B. DNA besser unterstützt). Aus der Aminosäure-Sequenz eines beliebigen Proteins kann also dessen Struktur vorhergesagt werden.

Überlagerung einer experimentellen Struktur (blau) des Proteins Albumin und Vorhersage von AlphaFold3 (gelb). Vorhersage und experimentelle Struktur stimmen ziemlich gut überein. (Struktur: PDB 1AO6, 10.1093/protein/12.6.439)

Diese Struktur kann dann zum Beispiel zur Entwicklung neuer Arzneistoffe verwendet werden. Denn gerade dafür braucht man oft ein genaues Bild davon, wie der Wirkstoff an das Protein bindet und mit welchen Aminosäuren er dort interagiert. Und man muss wirklich zugeben, dass AlphaFold erstaunlich gut ist. Wie schon gesagt ist die dreidimensionale Struktur von Proteinen eine komplizierte Angelegenheit und bei vielen Proteinen stimmen die Vorhersage und die experimentell bestimmte Struktur sehr gut überein. Allerdings ist AlphaFold lange nicht perfekt, auch nicht seit AlphaFold 3. Genauso wie es bestimmte Stärken hat, hat es auch Schwächen, die meiner Einschätzung nach sehr schwierig zu überwinden sein werden. Vieles davon wird in diesem Paper von 2023 schön zusammengefasst.

Unerwartetes entdecken

Einer der Hauptgründe, weshalb AlphaFold so gut ist, ist die Qualität der Trainingsdaten. Wie ChatGPT zum Beispiel ist AlphaFold auch ein sogenanntes large language model, also eigentlich ein Sprachmodell. Nur ist die Sprache, die AlphaFold spricht, eben keine Menschliche, sondern die „Sprache“ der Aminosäuren. Aber genau wie bei ChatGPT, das mit einer Unzahl von Texten trainiert wurde, braucht auch AlphaFold Trainingsdaten. Und hier hatten die Entwickler:innen enormes Glück, denn es existieren sehr viele, sehr gute experimentell bestimmte Proteinstrukturen, die frei zugänglich sind. Ohne diese Daten, die in Jahrzehnten strukturbiologischer Arbeit gewonnen wurden, wäre AlphaFold nicht möglich gewesen.

Das führt allerdings auch dazu, dass AlphaFold Schwierigkeiten damit hat, Unbekanntes oder Unerwartetes zu entdecken – es funktioniert ja auch durch den Vergleich mit bekannten Strukturen. Eine der großen Stärken experimenteller Methoden, solche unerwarteten Strukturmotive, Cofaktoren, Ionen oder Modifikationen zu entdecken ist damit eine der Schwächen AlphaFolds. Und die eigentlich unerwarteten Dinge sind eben oftmals die interessantesten.

Flexible Proteine sind ein Problem

Besonders gut sind die Vorhersagen von AlphaFold bei Proteinen (oder Teilen von Proteinen), die eine sehr stabile und gut definierte Struktur haben – so wie Helices und β-Faltblätter, für diejenigen von euch, die sich auskennen. Aber 30 % aller (eukaryotischer) Proteine besitzen Regionen, die man als intrinsically disordered bezeichnet und die im Prinzip gar keine festgelegte Struktur besitzen. Einige Protein sind sogar komplett intrinsically disordered und besitzen kaum stabile Strukturmotive. Solche flexiblen Proteine und Regionen bereiten der Strukturbiologie seit jeher Probleme, sei es experimentell oder via KI.

Vorhersage der Struktur des M2-Acetylcholinrezeptors. Die Farben stellen die Zuverlässigkeit der Vorhersage dar: blau – sehr hoch, hellblau – hoch, gelb – niedrig, orange – sehr niedrig. Die Zuverlässigkeit ist vor allem in gut strukturierten Bereichen hoch, während sie in flexiblen Bereichen niedrig bis sehr niedrig ist.

Es ist aber auch möglich, dass sich aus einer flexiblen Region kurzzeitig eine stabile Konformation (so werden definierte Proteinstrukturen auch bezeichnet) ergibt. Solche induzierten Konformationen entstehen häufig durch Wechselwirkungen mit z.B. anderen Proteinen. AlphaFold trifft seine Vorhersagen rein aus der Aminosäuresequenz eines Proteins und „weiß“ nichts über dessen physikochemische Eigenschaften. Es kann also auch nicht vorhersagen, welche Auswirkungen solche Wechselwirkungen auf die Struktur eines Proteins haben und erkennt die induzierte Konformation möglicherweise nicht.

Proteine sind ständig in Bewegung

Worauf physikochemische Wechselwirkungen noch einen großen Einfluss haben ist die Bewegung – die Dynamik – eines Proteins. AlphaFold liefert statische Bilder einer Proteinstruktur, aber eigentlich sind Proteine ständig in Bewegung und wechseln zwischen unterschiedlichen Konformationen hin und her. Das ist zum Beispiel der Fall, wenn ein Signalmolekül an ein Rezeptorprotein bindet; um dieses Signal weiterzuleiten muss der Rezeptor seine Struktur etwas verändern. Solche Unterschiede zwischen aktiver und inaktiver Form eines Proteins stellen für die Vorhersage der Struktur immer noch ein Problem dar und häufig erhält man eine Mischung aus beiden Möglichkeiten.

Überlagerung eines Proteinkomplex aus Vasopressin-Rezeptor 2 und beta-Arrestin 1 – beide Proteine sollten in einer aktiven Konformation sein. Die experimentell bestimmte Rezeptor-Struktur ist blau, die Vorhersage von AlphaFold 3 ist orange. Beide Arrestin-Strukturen sind grau. (Struktur: PDB 7R0C, 10.1126/sciadv.abo7761)

Auch andere Prozesse können dafür sorgen, dass Proteine ihre Struktur verändern. Posttranslationale Modifikationen – das „Dekorieren“ mit bestimmten chemischen Gruppen, nachdem die Aminosäuresequenz fertig ist gehört dazu, oder auch der pH-Wert. In bestimmten Bereichen einer Zelle herrschen andere pH-Werte und beeinflussen das Verhalten von Proteinen. Das kann AlphaFold jedoch auch nicht in jede seiner Vorhersage mit einkalkulieren.

(Not So) Open Science

Eine andere Sache, die ich an AlphaFold bedenklich finde, hat nichts mit dem Programm an sich zu tun, sondern mit den Unternehmen, die dahinter stehen. Wie Retraction Watch berichtet, haben Google und dessen Tochterunternehmen Deep Mind den Code (und die Trainingsdaten) von AlphaFold 3 nicht öffentlich gemacht – nicht einmal den Reviewern des Papers, das über die neue AlphaFold-Version berichtet. Es gibt zwar den AlphaFold-Server, den man für Simulationen mit AlphaFold 3 nutzen kann, allerdings nur für eine begrenzte Zahl an  Aufträgen pro Tag und nicht für alle Vorhersagen, die es kann – oder können sollte.

Das macht es nicht nur unmöglich, die Angaben über die Leistungsfähigkeit des Programms genau zu überprüfen, sondern widerspricht auch den Grundsätzen guter Wissenschaft. Daten und Code sollten für die Wissenschafts-Community zugänglich sein, um die Forschung möglichst weit voran zu bringen und Ergebnisse überprüf- und replizierbar zu machen.

Fazit: Was kann AlphaFold?

Das Ganze liest sich jetzt möglicherweise, als wäre ich kein allzu großer Fan von KI-Werkzeugen zur Vorhersage von Proteinstrukturen. Aber dem ist eigentlich nicht so – man muss sie nur als das betrachten, was sie sind. Nämlich Werkzeuge, mit ihren eigenen Einsatzgebieten, Stärken, Schwächen und Limitationen.

Ich wollte mit diesem Text einen eher kritischen Blick auf AlphaFold und Co. werfen, vor allem nach der extrem lobenden Berichterstattung der letzten Tage. Denn so gut AlphaFold auch ist – und es ist sehr gut – wird es nicht die experimentelle Strukturbiologie überflüssig machen oder uns im Rekordtempo einen neuen Arzneistoff nach dem anderen entwickeln lassen. Tatsächlich funktionieren AlphaFold-Vorhersagen für die Entwicklung neuer Arzneistoffe schlechter als solche, die auf experimentellen Daten basieren.

Stattdessen muss es sinnvoll in Arbeitsabläufe eingebunden werden. Seine Geschwindigkeit und Einfachheit muss verwendet werden, wenn sich aufwändige Experimente nicht lohnen. Experimente hingegen sind immer noch nötig, um neue und unerwartete Dinge zu entdecken – und um Vorhersagen überprüfen zu können. Aber richtig angewendet sind AlphaFold und Co. auf jeden Fall Werkzeuge, die in den Werkzeugkasten der Wissenschaft gehören und die anderen Werkzeuge darin gut ergänzen können.

Wenn euch dieser Text gefallen hast, abonniert doch gerne meinen Newsletter, um keinen neuen Beitrag mehr zu verpassen!

Die verborgenen Botenstoffe des Gehirns: Neuropeptide

Meine Biomoleküle dieses Monats sind Botenstoffe des Gehirns, die zwar sehr unterschiedlich sein können, aber trotzdem alle einen großen Einfluss auf die Kommunikation zwischen Nervenzellen haben. Sie sind an den grundlegendsten Funktionen des Körpers beteiligt und Störungen in diesem System können mitunter zur Entstehung vieler Erkrankungen führen: die Neuropeptide.

Über einhundert Neuropeptide

Was Neuropeptide genau sind, ist aber gar nicht so einfach zu beantworten. Denn im Vergleich zu anderen Signalmolekülen im Gehirn gibt es von ihnen deutlich mehr und auch deutlich unterschiedlichere. Der – sehr passend benannte – Text What Are Neuropetides? beschreibt sie so: „Ein Neuropeptid ist ein kleiner, proteinartiger Stoff, der von Nervenzellen produziert und gesteuert freigesetzt wird, und auf neuronale Strukturen wirkt“.

In diesem Satz steckt eine ganze Menge drin, aber bevor wir ihn genauer unter die Lupe nehmen, schauen wir uns gemeinsam einige Beispiele für Neuropeptide an: Da wären zum Beispiel die endogenen Opioide, die unter anderem bei der Empfindung von Schmerzen oder Stress wichtig sind, das als „Kuschelhormon“ bekannte Oxytocin, Vasopressin, das den Wasserhaushalt des Körpers und damit auch den Blutdruck steuert, oder ACTH, das den Cortisol-Spiegel im Blut reguliert. Außerdem gibt es noch  über einhundert andere Neuropeptide, die alle unterschiedlichste Funktionen übernehmen. Um zu erfahren, was diese mehr als einhundert Stoffe mit ihren verschiedenen Funktionen gemeinsam haben, müssen wir uns der obenstehenden Definition widmen.

Neuropeptid oder Hormon – oder beides?

„Kleiner, proteinartiger Stoff“ ist relativ selbsterklärend. Neuropeptide sind – offensichtlicherweise – Peptide, bestehen also wie Proteine auch aus Aminosäuren. Und klein sind sie, weil sie nur aus wenigen Aminosäuren bestehen.

Sie stammen aus Nervenzellen und werden von ihnen erst auf ein bestimmtes Signal hin freigesetzt. Und wenn sie freigesetzt wurden, binden sie wieder an Rezeptoren in der Membran einer Nervenzelle und beeinflussen dort die Signalweiterleitung.

„Aber“, werden manche von euch jetzt sagen, „du hast gesagt, dass Oxytocin oder Vasopressin Neuropeptide sind. Sind das nicht eigentlich Hormone?“ Und damit hättet ihr zwar recht, ich hätte allerdings ebenso recht. Denn ein Stoff kann gleichzeitig ein Hormon und ein Neuropeptid sein: Hormone sind Substanzen, die von einem Organ freigesetzt werden, über den Blutkreislauf weitertransprotiert werden, und dann auf ein anderes Organ wirken. Damit können einige Neuropeptide ohne Probleme auch Hormone sein. Und nicht nur das: Manche Stoffe, die von Nervenzellen freigesetzt werden – und damit als Neuropeptide gelten – können auch von anderen Zellen abgegeben werden und sind in diesem Fall dann keine Neuropeptide, sondern „nur“ Peptidhormone. Etwas verwirrend, ich weiß, aber letztendlich bedeutet das nur, dass ein und der selbe Stoff gleichzeitig ein Neuropeptid und ein Hormon sein kann, oder er kann zwar beides sein, aber jeweils in anderen Kontexten.

Ob das jetzt so wichtig ist? Da bin ich mir nicht so sicher. Denn schließlich sind „Neuropeptid“ und „Hormon“ nur menschengemachte Kategorien, um die Realität zu beschreiben, und in welche Kategorie wir eine Substanz stecken, ändert ihre Realität nicht.

Neuropetide steuern Hunger und Sättigung

Aber um weniger endlich weniger theoretisch zu werden, und uns Neuropeptide „in Aktion“ anzuschauen, betrachten wir zwei Substanzen, die an der Entstehung von Adipositas beteiligt sein können: α-MSH und NPY.

Beide sind unter anderem an der Regulation von Hunger- und Sättigungsgefühlen beteiligt und sind daher im Fokus der Adipositas-Forschung. Auch wenn ich mich jetzt auch auf diese Aufgabe der beiden Neuropeptide konzentrieren werde, sind sie ebenfalls wichtig für viele weitere Körperfunktionen.

α-MSH entsteht aus dem Vorläuferpeptid POMC. Denn je nachdem, wie POMC gespalten wird, können verschiedene Neuropetide daraus entstehen. In manchen Nervenzellen werden daraus die Melanocortine α-MSH, β-MSH oder γ-MSH gebildet, in anderen wiederum endogene Opioide oder ACTH, das die Synthese von Cortisol steuert. So ein Vorläuferpeptid, aus dem verschiedene Produkte entstehen können, ist sehr typisch für die Neuropeptide.

Wenn α-MSH dann gebildet ist – normalerweise, wenn wir etwas gegessen haben – kann es Rezeptoren an der Oberfläche anderer Nervenzellen aktivieren und dort seinen Effekt vermitteln:  der Hunger lässt nach und ein Sättigungsgefühl stellt sich ein.

Bei Menschen, die z.B. an genetisch bedingtem POMC-Mangel leiden, funktioniert dieser Regulationsmechanismus nicht. Der Hunger lässt trotz Essens nicht nach, und die Patient:innen entwickeln schweres Übergewicht. Daher gibt es einen Arzneistoff, Setmelanotid, der genauso wie α-MSH die entsprechenden Rezeptoren aktivieren und die Sättigung auslösen kann.

Struktur von NPY (Bild: Nevit Dilmen, Struktur: PDB 1RON)

NPY hat die entgegengesetzte Rolle: Die Freisetzung von NPY induziert Hunger, und auch Mutationen im NPY-System sind mit der Entstehung von Adipositas assoziiert. NPY wird genauso wie α-MSH aus einem Vorläuferpeptid gebildet, dem Prepro-NPY. Hier können daraus allerdings nicht so viele weitere Stoffe entstehen wie aus POMC, sondern nur ein weiterer, das C-flanking peptide, über das es nur sehr wenig Literatur gibt.

Und natürlich, wie das in der Biologie meistens ist, hängen die Signalwege von α-MSH und NPY auch zusammen. Zum Beispiel kann das gleiche Signal, das die Freisetzung von α-MSH auslöst, die Ausschüttung von NPY hemmen.

Das nur als kleines Beispiel für die Bedeutung von Neuropeptiden bei der Steuerung von so grundlegenden Dingen wie Hunger und Sättigung. Aber auf ähnliche Weise sind noch dutzende andere Neuropeptide an genauso grundlegenden Prozessen beteiligt.

Wenn euch dieser Text über die Neuropeptide gefallen hat, dann abonniert doch gerne meinen Newsletter, um keinen neuen Blogpost mehr zu verpassen oder lest meinen Beitrag über die vorherigen Biomoleküle des Monats, die nicht codierenden RNAs.

Die Jagd nach neuen Antibiotika – Antibiotika-Resistenzen, Teil 2

Immer mehr Antibiotika-resistente Bakterienstämme stellen die Medizin vor eine große Herausforderung. Denn bei vielen Infektionen, die eigentlich mal einfach zu behandeln waren, versagen die gängigen Antibiotika. Neue antibakterielle Arzneimittel werden so dringend benötigt wie selten zuvor, aber dennoch läuft die Entwicklung neuer Antibiotika sehr langsam. Wieso das so ist, und welche Strategien vielleicht trotzdem zum Erfolg führen könnten, lest ihr hier.

Enges vs. breites Spektrum

Wie ich in Teil 1 beschrieben habe, ist die Entstehung von immer mehr Antibiotika-resistenten Bakterienstämmen im Prinzip unvermeidbar, solange wir Antibiotika verwenden; wenn ihr wissen wollt wieso, dann lest Teil 1 doch gerne zuerst.

Die Tatsache, dass die Zahl der Resistenzen zunimmt, bedeutet natürlich auch, dass wir neue Behandlungsoptionen brauchen. Wie die Aussehen könnten, und welche Probleme es dabei gibt, beschreiben zum Beispiel zwei spannende Reviews von Cook und Wright und Bergkessel et al. Neue Antibiotika sind aber gar nicht so einfach zu finden: Antibiotika müssen oft in hohen Dosen eingesetzt werden und dürfen daher auf keinen Fall zu toxisch sein. Außerdem müssen sie anderen physikochemischen Eigenschaften entsprechen als „normale“ Arzneistoffe, weil sie ja nicht nur von Menschen aufgenommen werden und in ihnen wirken sollen, sondern auch zusätzlich in die Bakterien gelangen und dort wirken müssen. Vor allem gibt es aber sehr viele unterschiedliche Bakterien und je breiter das Wirkspektrum sein soll – also gegen wie viele verschiedene Bakterien ein Stoff wirkt – desto schwieriger wird es.

Breitband-Antibiotika haben einen entscheidenden Vorteil: Sie brauchen viel weniger Diagnostik. Während vor dem Einsatz von Stoffen mit engem Spektrum erst die Erreger identifiziert werden müssen, können Breitband-Antibiotika ohne diesen Nachweis verwendet werden. Und auch wenn nicht unnötigerweise breit therapiert werden sollte, fehlt für einen Erregernachweis oft die Zeit (häufig beruht der Nachweis noch auf der Anzucht der Bakterien, was einige Tage dauern kann). Allerdings sind neue Breitband-Antibiotika viel schwieriger zu finden als solche mit engem Spektrum. Daher könnte die Zukunft der antibiotischen Therapie aus mehr Stoffen mit engem Spektrum in Kombination mit schnelleren (point of care) Nachweisen der Erreger bestehen.

Neue Antibiotika aus der Natur

Woher sollen die neuen Antibiotika kommen? – Und ich meine damit wirklich neue Antibiotika, mit neuen Zielstrukturen und Wirkmechanismen, statt Derivaten bereits bekannter Stoffe. Eine Möglichkeit wäre der Ort, von dem auch viele der etablierten Antibiotika kommen: Aus der Natur. Denn tatsächlich produzieren viele Mikroorganismen antibakterielle Stoffe und die meisten Antibiotika sind entweder direkt mikrobiellen Ursprungs oder davon abgeleitet.

Streptomyces, eine Gattung der Actinomyceten

Bei den Antibiotikaproduzenten stechen vor allem die Actinomyceten hervor (also um genau zu sein Bakterien der Ordnung der Actinomycetales, aber ehrlicherweise verwirrt mich Systematik von Bakterien immer etwas). Um dann aber neue Stoffe zu finden und nicht nur bekannte, müssen neue Techniken verwendet werden. Methoden wie die Genomik bieten gute Ansatzpunkte jenseits der phänotypischen Testung, also im Prinzip einfach des „Ausprobierens“, ob die Anwesenheit bestimmter Bakterien oder Stoffe das Wachstum anderer Bakterien hemmt. So kann zum Beispiel nach potentiellen Biosynthese-Genclustern neuer antibakterieller Stoffe gesucht werden oder nach bestimmten Resistenzgenen – die meisten Antibiotika-produzierenden Mikroorganismen tragen nämlich auch Resistenzen dagegen in ihrem Erbgut. Es könnte sich aber auch lohnen, abseits der Actinomyceten zu suchen und andere Mikroorganismen unter die Lupe zu nehmen, die bisher nicht so ausführlich nach neuen Antibiotika untersucht wurden.

So viele Möglichkeiten die genomischen Methoden auch bieten, sollte man dabei die besonderen Anforderungen an Antibiotika nicht aus den Augen verlieren. Tausend neu identifizierte Biosynthese-Gene bringen nichts, wenn die entsprechenden Stoffe die Zellwand von Bakterien nicht überwinden können oder von den Bakterien direkt wieder aus der Zelle herausgeschleust werden. Zusätzlich spielt auch der Kontext der Infektion eine Rolle: Bakterien verhalten sich bei einer Infektion unter Umständen anders als in einer Laborkultur und dementsprechend kann auch der Effekt eines potentiellen Antibiotikums unterschiedlich sein.

Alte Arzneistoffe als neue Antibiotika

Naturstoffe sind aber natürlich nicht die einzige Möglichkeit, um neue Antibiotika zu finden. Auch komplett synthetische Stoffe können Potential haben, wie die sogenannten Oxazolidinone zeigen, eine Gruppe synthetischer Antibiotika, zu denen u.a. das klinisch sehr wichtige Linezolid gehört.

Neue (synthetische) Antibiotika-Kandidaten müssen allerdings nicht unbedingt neue Moleküle sein. Es gibt ein Methode namens drug repurposing, bei der existierende Arzneistoffe für neue Einsatzgebiete verwendet werden. Ein erfolgreiches Beispiel ist Zidovudin, ein Wirkstoff bei HIV-Infektionen, das ursprünglich jedoch gegen Krebs entwickelt wurde. Tatsächlich sind etwa 30 % der zugelassenen Arzneistoffe der letzten Jahre in solcher Weise wiederverwendet – allerdings kein einziges Antibiotikum.

Viele existierende Wirkstoffe zeigen zumindest in vitro antibakterielle Eigenschaften, auch wenn das für ihre in vivo-Anwendung an Menschen noch nicht viel heißen muss. Der Vorteil des drug repuposings ist jetzt, dass für diese Stoffe häufig schon Daten zur Toxizität, zur Pharmakokinetik, der Maximaldosis usw. bekannt sind. Dadurch ist es viel einfacher abzuschätzen, ob sie sich tatsächlich auch als klinisch nützliche Antibiotika eigenen würden, und falls ja ist der Weg dahin sowohl günstiger als auch schneller.

Und selbst falls die antibakterielle Wirkung allein zu gering sein sollte, könnten solche Stoffe eventuell als Adjuvans eingesetzt werden, die in Kombination die antibakterielle Wirkung eines anderen Wirkstoffs verstärken oder Resistenzen umgehen, ohne selbst (stark) antibakteriell zu sein.

Bakteriophagen – Viren gegen Bakterien

Einige Menschen werden sich jetzt wohl Fragen: Wann geht es endlich um Phagen? Bakteriophagen sind eine Art Trendthema, wenn es um Alternativen zu Antibiotika geht. Es sind Viren, die ausschließlich Bakterien befallen und damit prinzipiell perfekt um selektiv Bakterien abzutöten. Genau darauf haben sie sich schließlich über Millionen Jahre an Evolution entwickelt.

Phagen infizieren immer nur spezifische Arten von Bakterien, wodurch sie z.B. gegenüber des Mikrobioms sehr schonend sind. Diese Selektivität ist aber nicht nur ein Vorteil: Phagen haben das gleiche Problem wie Antibiotika mit engem Spektrum. Sie brauchen einen ausführlichen Erregernachweis, was nicht immer praktikabel ist. Außerdem sind Phagen potentiell immunogen, können also vom Immunsystem erkannt werden und Abwehrreaktionen wie Fieber auslösen.

T4 Phagen infizieren E. coli Bakterien (Bild: Leppänen et al. DOI 10.1002/adbi.201700070, CC BY-SA 4.0)

Ein Mythos ist, dass Phagen keine Probleme mit der Entwicklung von Resistenzen hätten. Zwar haben sie sich sehr lange entwickelt, um Bakterien zu infizieren und zu töten, aber die Bakterien hatten genauso lange Zeit, um Abwehrmechanismen zu entwickeln. Kombinationen verschiedener Phagen könnten Resistenzen verzögern, und weiterentwickelte Varianten könnten eine bestehende Resistenz überwinden, aber im Prinzip haben Phagen, was die Resistenzentwicklung angeht, nicht wirklich Vorteile gegenüber Antibiotika.

Das soll allerdings nicht heißen, dass die Phagentherapie keinen Platz in der Behandlung von Infektionen hätte. Gerade wenn sich auch die Identifikation von Erregern weiterentwickelt, können Phagen eine wichtige Rolle bei Infektionen mit Antibiotika-resistenten Bakterien spielen. Dass der Einsatz von Phagen eine hoch-personalisierte Therapie und damit aufwändig  und teuer ist, und daher auch Antibiotika nicht ersetzen kann, wird sich jedoch nicht so schnell ändern.

Das wirtschaftliche Problem

Das größte Hindernis bei der Entwicklung neuer Antibiotika habe ich jedoch noch gar nicht angesprochen. Es ist allerdings kein wissenschaftliches Problem, sondern ein wirtschaftliches.

Mit neuen Antibiotika verdient nämlich niemand Geld. Die Entwicklung von Arzneimitteln ist – vor allem durch klinische Studien – extrem teuer. Für den Entwicklungsprozess, von der Entdeckung einer Leitstruktur bis zur Einführung in die Klinik, muss ein Unternehmen etwa 1,5 Milliarden Euro investieren, im Verkauf sind Antibiotika aber eher Pfennigware. Außerdem sollten neue Antibiotika im Idealfall so selten wie möglich eingesetzt werden; sie sollten als Reserve-Arzneimittel für dringende Fälle vorbehalten werden, damit sich nicht direkt neue Resistenzen dagegen entwickeln. Das alles führt nur leider dazu, dass Unternehmen mit neuen Antibiotika ihre Investitionskosten nicht wieder reinholen können, und daher auch keinen Anreiz dazu haben, Antibiotika zu entwickeln.

Tatsächlich wird daher überproportional viel Arbeit in diesem Bereich von der akademischen Forschung übernommen, viel mehr als bei anderen Arzneimittelgruppen. Allerdings haben die Universitäten bei weitem nicht genug Mittel, diese Aufgabe allein zu übernehmen.

Wir haben in unserer Gesellschaft entschieden, dass neue Arzneimittel von gewinnorientierten Unternehmen entwickelt werden und diese Forschung nicht von der öffentlichen Hand finanziert wird. Dieses Modell funktioniert jetzt – leider im Angesicht von mehr und mehr Resistenzen – allerdings nicht mehr.

Eine dreiteilige Lösung

Wir brauchen also eine dreiteilige Lösung für das Resistenz-Problem: Der erste Teil ist eine wissenschaftliche Lösung für die Entwicklung neuer antibakterieller Wirkstoffe. Dazu gehört ein besseres Verständnis für die physikochemischen Eigenschaften von Antibiotika, neue Quellen für Leitstrukturen wie z.B. bisher wenig untersuchte Mikroorganismen oder das drug repurposing, und sinnvolle Plattformen zur Evaluation der antibakteriellen Wirkung, die verschiedene bakterielle Physiologien und Infektionskontexte nicht außer Acht lassen.

Der zweite Teil ist eine therapeutische Lösung. Sie muss eine schnellere und einfachere Identifikation von Erregern, den gezielten Einsatz von Antibiotika mit engem Spektrum und personalisierten Therapien, die Verwendung von Adjuvantien und Hemmstoffen von Resistenzmechanismen, und ein sinnvolles Therapiemanagement zur Verlangsamung der der Resistenzentstehung umfassen. Außerdem ist eine der besten Methoden gegen Antibiotika-resistente Erreger die Vermeidung von Infektionen. Das ist natürlich selbst ein großes Feld, aber klar ist, dass Impfungen auch im Rennen gegen Antibiotika-Resistenzen extrem wichtig sind.

Der dritte Teil ist schließlich eine wirtschaftliche und politische Lösung. Neue Antibiotika kosten Geld, und dieses Geld müssen wir irgendwie aufbringen. Wir können nicht erwarten, dass unser auf Gewinn ausgelegtes Gesundheitssystem Therapien hervorbringt, die mehr kosten als sie einbringen. Und diese wirtschaftliche Lösung muss immer auch global gedacht werden: Auch in ärmeren Ländern muss die Versorgung mit (neuen) antibakteriellen Arzneimitteln sichergestellt sein. Resistenzen können überall auf der Welt  entstehen und Bakterien halten sich nicht an Staatsgrenzen, und deshalb sind neue Antibiotika nur für reiche Industrienationen niemals ausreichend.

Wenn euch dieser Beitrag gefallen hat, abonniert doch gerne meinen Newsletter, um keine Blogposts mehr zu verpassen. Und hier geht es nochmal zum ersten Teil dieses Textes über die Entstehung von Resistenzen und Resistenzmechanismen, falls ihr ihn noch nicht gelesen habt.

Wieso Antibiotika-Resistenzen unvermeidbar sind – Antibiotika-Resistenzen, Teil 1

Eine der größten Revolutionen der Medizin war ohne Zweifel die Entdeckung der Antibiotika. Während davor mehr als die Hälfte aller Menschen an Infektionen starben, sind viele dieser damals lebensbedrohlichen Krankheiten heute relativ gut zu behandeln. Doch diese „Unschlagbarkeit“ gegenüber bakteriellen Infektionen wird von Antibiotika-Resistenzen bedroht. Die Entstehung von mehr und mehr Resistenzen ist unvermeidbar, und schon jetzt sind multiresistente Stämme ein großes Problem. Die Entwicklung neuer Antibiotika läuft hingegen nur schleppend. Wie also kann in Zukunft unsere Antwort auf Antibiotika-Resistenzen aussehen?

Das Wettrennen gegen Resistenzen

Der Kampf gegen resistente Bakterienstämme ist wie ein Wettrennen. Aber während die Entwicklung neuer Antibiotika durch wissenschaftliche und gesellschaftliche Gründe – die wir uns später noch genauer anschauen werden – gebremst wird, ist die Entstehung neuer Resistenzen unaufhaltsam.

Dass Bakterien resistent gegenüber bestimmten Wirkstoffen werden, ist die logische Konsequenz aus deren Einsatz. Denn wenn ein Antibiotikum erst einmal „draußen“ in der Welt ist, haben Bakterien, die weniger empfindlich darauf sind, einen evolutionären Vorteil. Sie erwerben Resistenzen gegen diesen Stoff durch Mutationen in ihrem Erbgut, was durch ihre extrem große Zahl und kurzen Generationszeiten viel schneller geht als zum Beispiel evolutionäre Prozesse bei Menschen ablaufen.

Elektronenmikroskopisches Bild von E. coli Bakterien (Bild: Janice Haney Carr)

Und hat ein Bakterium erst einmal eine Resistenz erworben, kann es sie durch einen sogenannten horizontalen Gentransfer auch an andere Bakterien weitergeben. Dabei wird genetisches Material, beispielsweise in Form von ringförmigen DNA-Stücken, den Plasmiden, von einer Zelle an eine andere übertragen. Dieses genetische Material codiert entsprechende Antibiotika-Resistenzen – aber nicht nur das: Denn oft befindet sich darauf nicht nur die Information für die Resistenz gegen einen Stoff, sondern gegen viele unterschiedliche. Und so kann es dann passieren, dass die Selektion durch die Anwendung eines Antibiotikums quasi nebenbei zum Erwerb vieler weiterer Resistenzen führt.

Wie sich Bakterien gegen Antibiotika wehren

Aber wie funktionieren Resistenzen überhaupt? Da gibt es verschiedene Mechanismen – oder Kombinationen von Mechanismen – die Bakterien resistent machen können. Erst einmal gibt es die intrinsischen Resistenzen, bei denen Bakterien aufgrund ihrer „normalen“ Eigenschaft nicht anfällig für einen Stoff sind. Bakterien können grob in zwei Kategorien eingeteilt werden: Gram-positiv und Gram-negativ. Sie unterscheiden sich durch den Aufbau ihrer Zellwand, was der Grund für viele intrinsische Resistenzen ist. Denn einige Stoffe, z.B. das Antibiotikum Vancomycin, können die Zellwand Gram-negativer Bakterien (genau genommen deren äußere Membran) einfach nicht überwinden.

Intrinsische Resistenzen sind aber nicht diejenigen, die uns Probleme bereiten. Das sind eher die erworbenen Resistenzen. Und während eine verminderte Aufnahme von Antibiotika – beispielsweise durch verringerte Bildung von Kanalproteinen oder vermehrte Bildung von Proteinen, die Antibiotika wieder aus der Zelle heraustransportieren – auch hier ein wichtiger Mechanismus ist, ist es bei Weitem nicht der einzige.

Am simpelsten sind wohl einfach Veränderungen in der Zielstruktur. Denn alle Antibiotika binden an irgendeine Struktur der Bakterien, hauptsächlich Enzyme, um dort ihre Wirkung zu vermitteln. Wenn diese Zielstruktur,  das sogenannte Target, durch eine Mutation verändert ist, können Antibiotika schlechter daran binden und werden weniger wirksam (z.B. indem sich durch eine andere Aminosäure im aktiven Zentrum eines Enzym die Bindestelle orthosterischer Hemmstoffe verändert).

Bakterien können sich aber auch direkt gegen Antibiotika wehren, indem sie sie chemisch verändern. Dazu können sie entweder Bindungen spalten – meistens durch Hydrolyse von Estern oder Amiden – oder neue chemische Gruppen an die Antibiotika anhängen. So der so, am Ende führt das dazu, dass die veränderten Stoffe nicht mehr an ihr Target binden können.  Die Aufgabe, Antibiotika chemisch zu verändern, übernehmen Enzyme. Und das bekannteste Beispiel hier sind wohl die β-Lactamasen.

β-Lactamasen spalten Penicilline und machen sie damit unwirksam

β-Lactamasen gehören zu den Penicillin-bindenden Proteinen. Aber außer Penicilline (und generell β-Lactam-Antibiotika) zu binden, können sie diese leider auch abbauen und damit wirkungslos machen. Einige Bakterien besitzen natürlicherweise β-Lactamasen, aber auch viele Stämme, die vorher Penicillin-sensibel waren, werden durch die Bildung von β-Lactamasen resistent. Als Gegenmaßnahme wurden die β-Lactamase-Hemmer entwickelt, also Arzneistoffe, die nur dazu da sind, die abbauenden Enzyme zu hemmen. Sie werden zusammen mit einem Antibiotikum gegeben, um es vor dem Abbau zu schützen. Allerdings gibt es sehr viele unterschiedliche β-Lactamasen, gegen die einzelne Stoffe alleine nicht alle wirken können, und auch die abbauenden Enzyme verändern sich immer weiter – so entstanden zum Beispiel die extended spectrum β-Lactamasen, die noch mehr unterschiedliche Antibiotika abbauen können.

Das größte Problem: Der falsche Umgang

Welcher Mechanismus auch immer für die Resistenz verantwortlich ist, er ist genetisch codiert und kann damit sowohl evolutionär entstehen als auch zwischen Bakterien übertragen werden. Und hier müssen wir uns als Menschheit selbst an die Nase fassen: Denn wir schaffen die perfekten Bedingungen dafür. Die Entstehung von Resistenzen ist nämlich an Orten am einfachsten, an denen viele und viele unterschiedliche Bakterien einer großen Zahl an Antibiotika ausgesetzt sind. Dazu gehören natürlich Krankenhäuser, in denen viele verschiedene Patient:innen mit diversen Infekten behandelt werden müssen. Aber nicht allein die Kliniken sind das Problem. Das Abwasser ist oft mit den unterschiedlichsten (antibakteriellen) Arzneistoffen kontaminiert, sodass auch dort ideale Bedingungen für Entstehung resistenter Stämme herrschen.

Generell ist der größte Faktor, der zur Verbreitung von Antibiotika-Resistenzen beiträgt, der fehlerhafte Umgang mit Antibiotika. Das reicht von unnötig oder falsch verschriebenen Antibiotika durch Ärzt:innen über unzureichende Vorschriften und mangelhafte Aufklärung von Patient:innen bis hin zum übertriebenen Einsatz von Antibiotika in der Tierhaltung und der Kontamination von Wasser und Umwelt.

Daher sind Maßnahmen, unseren Umgang mit antibiotischen Arzneimitteln zu verbessern, eine wichtiges Werkzeug im Wettrennen gegen die Resistenzen. Ein Beispiel sind die Antibiotic Stewardship Programme, die auf mehreren Ebenen und interdisziplinär einen verantwortungsvollen Umgang fördern wollen.

Aber eine Sache muss trotzdem klar gesagt werden: Solange wir Antibiotika verwenden, ist die Resistenz dagegen ein Selektionsvorteil für Bakterien. Das bedeutet, dass Antibiotika-Resistenzen quasi unvermeidbar sind. Und das heißt auch, dass wir neue antibakterielle Wirkstoffe brauchen werden, um Infektionen mit diesen resistenten Bakterien zu behandeln. Wieso das aber gar nicht so einfach ist, und was wir tun können, um dieses Wettrennen doch zu gewinnen, erfahrt im zweiten Teil dieses Textes, den ihr hier findet.

Und wenn euch dieser Beitrag gefallen hat, dann abonniert doch gerne meinen Newsletter, um keinen neuen Blogpost mehr zu verpassen.

Die Sache mit der Homöopathie – Wieso Homöopathie kein Arzneimittel sein sollte

Vor einer Weile wurde bekannt, dass Homöopathie als Leistung der gesetzlichen Krankenkassen gestrichen werden soll. Das hat einiges an Diskussionen ausgelöst: Homöopath:innen und Heilpraktiker:innen sind offensichtlich verärgert – sie verdienen schließlich ihr Geld damit. Personen, die sich schon länger mit evidenzbasierter Arzneitherapie beschäftigen, haben sich hingegen gefreut, da sie das schon lange forderten. Aber was ist mit der Mehrheit der Menschen, die weder das eine, noch das andere sind? Ich denke, dass sehr viele Menschen gar nicht genau wissen, was Homöopathie überhaupt ist – und was nicht. Und für genau diese Menschen ist diese Einordnung hier gedacht.

Was ist Homöopathie überhaupt

Die Homöopathie wurde Ende des 18. Jahrhunderts von Samuel Hahnemann begründet. Zu dieser Zeit war sie tatsächlich so etwas wie eine Alternativmedizin, denn damals vorherrschend war die sogenannte Humoralpathologie, die Vier-Säfte-Lehre. Sie existiert seit der Antike und geht davon aus, dass alle Krankheiten durch ein Ungleichgewicht der vier Säfte Blut, Schleim, gelbe und schwarze Galle verursacht werden. Offensichtlich waren darauf basierende Behandlungen eher von begrenztem Erfolg – und nach damaligem Wissenstand lieferte Hahnemanns Homöopathie ebenso plausible Behandlungsmöglichkeiten. Aber während die Vier-Säfte-Lehre inzwischen keine Bedeutung mehr hat, existiert die Homöopathie weiter.

Es gibt zwei Grundsätze in der Homöopathie: Der erste ist das Ähnlichkeitsprinzip – similia similibus curentur oder auf Deutsch Gleiches wird von Gleichem geheilt – und das Prinzip der Potenzierung. Im Klartext bedeutet das, dass Stoffe, die gewisse Symptome auslösen, Krankheiten mit diesen Symptomen heilen können. Und je verdünnter (auf sehr spezifische, quasi rituelle Weise) diese Stoffe sind, desto wirksamer sind sie, wobei es nicht die Stoffe selbst sind, die eine Wirkung vermitteln, sondern ihre Informationen, die dabei auf das Trägermedium übergehen. Auch wenn das zur Zeit Samuel Hahnemanns nachvollziehbare Annahmen gewesen sein mögen, wissen wir jedoch heute, dass beides nicht stimmen kann.

Homöopathie vs. Phytotherapie

Bevor wir weiter machen, muss ich noch mit einem häufigen Missverständnis aufräumen: Die Vorstellung, dass Homöopathika pflanzlich und natürlich sind, ist extrem weit verbreitet, und für viele Menschen sind Homöopathika und pflanzliche Arzneimittel im Prinzip das Gleiche. Das beruht weitestgehend auf extrem gutem Marketing, und weniger auf der Realität, denn für die Homöopathie ist egal, wo ihre Ausgangsstoffe herkommen. Trotzdem wird vor allem von Herstellern von Homöopathika dieses Image der Natürlichkeit gepflegt und damit eine falsche Vorstellung von der Homöopathie geweckt. Phytotherapie, also die Therapie mit pflanzlichen Arzneimitteln, kann sehr wirksam sein, und tatsächlich gibt es auch keinen Grund dazu, dass sie generell sanfter oder nebenwirkungsärmer sein sollte als synthetisch hergestellte Arzneistoffe – für ein Beispiel verweise ich gerne auf meinen Text zu pflanzlichen Cytostatika. Homöopathika haben hingegen weder einen plausiblen Wirkmechanismus noch nachgewiesene Wirkungen.

Homöopathie wirkt nicht

Um das erstmal aus dem Weg zu räumen: Ich bin kein Fan von der Formulierung „keine Wirkung über den Placebo-Effekt hinaus“, denn wenn es um die Wirkung von Arzneimitteln geht, halte ich es mit der Formulierung aus dem Arzneimittelgesetz: „eine pharmakologische, immunologische oder metabolische Wirkung“, und der Placebo-Effekt ist nichts davon. Ich kann also mit gutem Gewissen schreiben, dass Homöopathika keine Wirkung haben.

Mir ist bewusst, dass viele Studien kursieren, die etwas anderes behaupten. Aber wenn man sich die entsprechende Literatur genau anschaut, stellt man fest, dass große und gut gemachte Studien und Meta-Analysen keine Wirkung von Homöopathika finden (z.B. ein Statement des easac, ein Cochrane-Review zu Atemwegsinfektionen oder ein Review zu psychiatrischen Indikationen, und dieses Review zu Homöopathika allgemein). Studien, die positive Effekte von Homöopathie zeigen, weisen oft ziemlich offensichtliche Fehler auf, und sind teilweise schon zurückgezogen – was viele Menschen nicht daran hindert, sie trotzdem als Beweis verwenden zu wollen (möglichen Bias in Studien zeigt z.B. dieses Review). Über ein Beispiel, eine Studie an Wasserlinsen, habe ich auf diesem Blog schon geschrieben. Aber wenn man genug cherrypicking betreibt, ist es trotzdem immer möglich, eine Wirkung irgendwo herauszulesen.

Im Gegensatz zur Wirkung dazu gibt es gute Erklärungen, wieso Homöopathie den Anschein einer Wirkung haben kann. Neben dem viel genannten Placebo-Effekt – es geht mir besser, weil ich erwarte, dass es mir besser gehen wird – ist vor allem die zeitliche Komponente entscheidend. Viele Erkrankungen, die typischerweise homöopathisch behandelt werden, gehen irgendwann von selbst vorbei. Nehme ich dabei Homöopathika, denke ich aber, dass es deren Verdienst war, obwohl sie eigentlich gar nichts bewirkt haben. Für eine ausführlichere Erklärung möchte ich auf diesen Artikel des INH verweisen.

Wieso die Streichung als Kassenleistung wichtig ist

Selbst wenn Homöopathika keine Wirkung haben, können sie doch nicht schaden, oder? Wieso sollten sie dann nicht von den Krankenkassen bezahlt werden? Naja, so einfach ist das nicht. Einerseits müssen wir uns natürlich fragen, ob wir als Solidargemeinschaft tatsächlich Geld für wirkungslose Mittel ausgeben wollen. Aber abgesehen von dem Geld verleiht es der Homöopathie eine Legitimität, die sie nicht besitzen sollte. Denn ohne Wirkung ist die Homöopathie nicht als Arzneitherapie geeignet. Stattdessen kann sie sogar gefährlich sein, wenn nämlich Patient:innen zugunsten der Homöopathie auf eine nötige Behandlungen verzichten. Nicht alle Krankheiten gehen von selbst vorbei – Herz-Kreislauf-Erkrankungen, schwere Infektionen oder Krebs zum Beispiel. Wenn Patient:innen suggeriert wird, dass Homöopathika bei Erkältungen oder Kopfschmerzen helfen können, wieso sollten sie dann nicht auch bei ernsten Erkrankungen welche nehmen? Aus Sicht der Patient:innen gibt es erstmal keinen Grund dagegen, schließlich gehen sie davon aus, dass die Homöopathie sie heilen wird. Und genau deshalb sollte erst gar nicht der Anschein erweckt werden, Homöopathie hätte irgendeine Wirkung.

Außerdem wird mit der Homöopathie ein wissenschaftsfeindliches Weltbild kultiviert. Nicht, dass sich unbedingt jede:r für Wissenschaft interessieren muss, überhaupt nicht. Aber die Behauptung, Homöopathika wirkten entgegen allen wissenschaftlichen Erkenntnissen normalisiert die Einstellung, dass es so etwas wie alternative Realitäten gibt. Realitäten, in denen Homöopathie wirkt, obwohl wissenschaftliche Erkenntnisse etwas anderes sagen, in denen medizinische Behandlungen nichts bringen, in denen Impfungen krank machen, in denen Viren nicht existieren oder in denen der Klimawandel nicht menschengemacht ist, obwohl wissenschaftliche Erkenntnisse etwas anderes sagen.

Homöopathie sollte kein Arzneimittel sein

Die Streichung von Homöopathie als Kassenleistung ist ein wichtiger Schritt. Noch wichtiger wäre aber, dass Homöopathika nicht mehr als Arzneimittel gelten. Denn sie besitzen einen Sonderstatus im Arzneimittelgesetz, wonach sie als Arzneimittel gelten, ohne die strengen Zulassungsvoraussetzungen erfüllen zu müssen. Normalerweise müssen neue Arzneimittel neben vielen anderen Dingen vor allem Wirksamkeit und Unbedenklichkeit nachweisen. Homöopathika müssen das aber nicht, sie müssen nämlich statt zugelassen nur registriert werden. (Diese Sonderegel teilen sie sich mit den traditionellen pflanzlichen Arzneimitteln, die auch nur registriert werden müssen).

Der Sonderstatus von Homöopathie bedeutet, dass sie als Arzneimittel bezeichnet und beworben werden dürfen, in Apotheken verkauft werden müssen und von Ärzt:innen verschrieben werden können. Das führt aber eben genau dazu, dass Patient:innen sie für eine wirksame Behandlung halten könnten. Statt in die Apotheke gehört die Homöopathie eher in Drogerien, zu anderen Wellnessprodukten, ohne eine Wirksamkeit vorzugaukeln, die sie nicht besitzt.

Wenn ihr euch weiter zur Homöopathie informieren wollt, gibt es dafür tolle Ressourcen, zum Beispiel die Seite des Informationsnetzwerks Homöopathie. Ansonsten hoffe ich, dass mein Text schon einmal eine  guten Überblick geliefert hat. Und wenn euch dieser Beitrag gefallen hat, abonniert doch gerne meinen Email-Newsletter.

Biomolekül des Monats: nicht-codierende RNA

Spätestens seit Aufkommen der mRNA-Impfstoffe haben viele zumindest eine grobe Ahnung, was RNA ist. Aber es gibt nicht nur die mRNA, denn eigentlich ist die mRNA – wenn auch die prominenteste der RNA-Arten – deutlich in der Minderheit. Tatsächlich sind 98% aller RNA von Eukaryoten (das heißt Lebewesen mit Zellkern) sogenannte nicht-codierende RNA. Daher sind die nicht-codierenden RNAs meine Biomoleküle des Monats, und in diesem Text werden wir uns diese zu wenig beachteten 98% der RNA etwas genauer anschauen.

mRNA und Translation

Aber beginnen wir doch trotzdem kurz mit der mRNA. Das „m“ steht hier für messenger und genau das ist die mRNA. Sie transportiert die Information über den Aufbau von Proteinen, die auf der DNA gespeichert ist, zu den Ribosomen. Die wiederum übersetzen diese Information dann in einem Translation genannten Prozess in ein Protein. Daher ist die mRNA auch codierende RNA – sie codiert Informationen für den Aufbau von Proteinen.

Für die Translation werden klassischerweise noch zwei anderen Typen von RNA gebraucht: die ribosomale rRNA und die transfer- tRNA. Das sind schon die ersten beiden nicht-codierenden RNAs, denn sie tragen keine Information über die Aminosäuresequenz eines Proteins. Stattdessen ist die rRNA Bestandteil der Ribosomen und die tRNA transportiert die Aminosäuren zum Ribosom und macht die eigentliche „Übersetzungsarbeit“ von mRNA zu Protein.

Dreidimensionale Struktur einer tRNA . Ganz unten, an der “Spitze” befindet sich das Anticodon, das an die mRNA bindet und eine bestimmte Abfolge von drei Basen erkennt (S. cerevisiae Phe-tRNA, PDB 1EHZ)

“Die RNA ist keine Wäscheleine”

Bevor wir uns die anderen nicht-codierenden RNAs anschauen, müssen wir kurz klären, was RNA eigentlich ist: RNA ist eine Nukleinsäure – die Abkürzung RNA steht für ribonucleic acid – und besteht wie die DNA aus einem Zucker-Phosphat-Rückgrat und einer Abfolge von Basen, die bei der mRNA die Information codiert.

Der Unterschied zur DNA besteht in dem Zucker – Ribose statt 2‘-Desoxyribose – und in einer Base – Uracil statt Thymin. Einige Arten von RNA beinhalten aber tatsächlich noch andere, seltenere Basen. Außerdem ist RNA keine Doppelhelix sondern liegt typischerweise einzelsträngig vor. Aber, wie mein Biolehrer in der Schule immer sagte, „die RNA ist keine Wäscheleine“. Stattdessen bildet auch sie lokale Strukturen und Basenpaarungen mit komplementären Basen (U und A sowie C und G) des gleichen oder eines anderen RNA-Strangs.

Aufbau der RNA aus Zucker-Phosphat-Rückgrat und Basen

Und RNAs, die an komplementäre RNA-Stränge binden können, sind weitere wichtige nicht-codierende RNAs.

Interferenz – Kontrolle der Genexpression

Sowohl miRNAs (mi für micro) als auch siRNAs (si für small interfering) machen sich die Bindung an komplementäre mRNA zunutze, um die Genexpression – also die tatsächliche Umsetzung der genetischen Information in ein Protein – zu regulieren.

miRNAs sind genetisch codiert und nach einem relativ komplizierten Herstellungsprozess entsteht ein doppelsträngiges Stück RNA, die reife miRNA. Zusammen mit einigen Protein kann einer dieser RNA-Stränge einen miRISC genannten Komplex bilden. Die miRNA in miRISC kann jetzt an eine komplementäre Stelle in einem mRNA-Strang binden. Typischerweise findet diese Bindung in einem Teil der mRNA statt, die 3‘-untranslatierte Region genannt wird und keine Information über den Aufbau eines Proteins trägt. Die Bindung von miRNA und RISC führt dann dazu, dass der mRNA-Strang abgebaut wird, und das darauf codierte Protein wird nicht hergestellt. Das geschieht, indem die schützenden Enden der mRNA – 3‘-poly-A-Ende und 5‘-cap – entfernt werden. Ohne diesen Schutz ist mRNA in einer Zelle extrem instabil und wird sehr schnell zerstört.

RISC aus einem Protein (blau) und miRNA gebunden and eine mRNA (beides rot) (PDB 6N4O)

Da die Biologie in den allermeisten Fällen effizient ist und Mechanismen für unterschiedliche Dinge verwendet – was für uns dann oft chaotisch erscheint – ist das nicht die einzige Funktion der miRNA: Sie kann auch die Translation gebundener mRNA hemmen, oder sogar die Genexpression direkt an der DNA im Zellkern beeinflussen.

Ganz ähnlich funktioniert die siRNA. Ihre Biosynthese ist zwar etwas anders, aber auch sie bildet RISCs, die bestimmte mRNA-Stränge erkennen und diese zerstören oder anderweitig ihre Translation verhindern. Durch die komplementäre Basenpaarung der mi- oder siRNA mit ihrer Ziel-mRNA ist dieser Regulationsmechanismus sehr spezifisch.

Diese Spezifität kann man auch für die Arzneitherapie nutzen. Es ist möglich, ganz gezielt Gene, die in eine Erkrankung involviert sind, abzuschalten. Givosiran beispielsweise ist ein siRNA-basierter Arzneistoff, der zur Behandlung der akuten intermittierenden Porphyrie verwendet wird – über Porphyrien habe ich in meinem Text über Häm ein wenig geschrieben. Das gleiche Prinzip wird häufig in der Molekularbiologie verwendet: Durch das Abschalten eines bestimmten Genes kann z.B. dessen Rolle in einem biologischen Prozess untersucht werden.

Ribozyme

Obwohl das noch lange nicht alle nicht-codierenden RNAs waren, möchte ich zum Abschluss nur noch eine davon erwähnen: die Ribozyme. Ribozyme sind RNA-Moleküle, die chemische Reaktionen katalysieren können, ganz genauso wie die bekannteren und häufigeren Enzyme. Ein Beispiel habe ich weiter oben sogar schon einmal erwähnt. Denn manche rRNAs, aus der Ribosomen aufgebaut sind, besitzen katalytische Aktivität und fügen die Aminosäuren eines gerade entstehenden Proteins zusammen.

Ribozyme sind außerdem eine wichtige Stütze der RNA-Welt-Hypothese. Sie besagt, dass die frühesten Lebewesen auf RNA sowohl als Informationsspeicher als auch zur Katalyse von Reaktionen basierten. Diese Aufgaben werden in allen modernen Lebensformen vorranging von DNA bzw.  Proteinen übernommen, womit die Ribozyme eine Art „Überbleibsel“ der RNA-Welt sein könnten. (Eine sehr anschauliche, aber nicht wirklich zutreffende Beschreibung von Ribozymen wären Fossilien aus der RNA-Welt.)

Das war jetzt also ein kurzer Rundumschlag zu den 98% der RNA, die keine mRNA sind. Es gäbe – wie bei fast jedem Thema – noch so viel mehr zu sagen, aber das muss dann wohl bis zu einem anderen Blogpost warten. Und falls ihr keine neuen Beiträge mehr verpassen wollt, dann abonniert doch gerne meinen Email-Newsletter.

CRISPR-basierte Therapien, Teil 2: Ihre Probleme und ihr Potential

Im ersten Teil dieses Textes habe ich euch Exa-cel, die erste CRISPR-basierte Gentherapie vorgestellt. Wie wir gesehen haben, ist das CRISPR/Cas9-System extrem gut dazu geeignet, DNA an einer ganz spezifischen Stelle zu editieren. So können dann – wie z.B. bei Exa-cel – bestimmte Gene ausgeschaltet werden.

Das funktioniert, indem eine guide RNA an eine komplementäre DNA-Sequenz bindet und das Cas9-Protein die DNA an dieser Stelle schneidet. Dieser DNA-Doppelstrangbruch führt dazu, dass zufällige Nukleotide (die einzelnen Bausteine der DNA) entfernt oder eingefügt werden. Durch diesen non-homologous end joining genannten Prozess verliert das geschnittene Gen seine Funktion. Mithilfe eines anderen Prozesses können sogar neue Gene an der geschnittenen Stelle eingefügt werden. Was jedoch auch immer das Ziel ist, CRISPR/Cas9 ist ein sehr exaktes und wirkungsvolles Werkzeug.

Cas9 schneidet DNA dort, wo die guide RNA bindet. (Bild: marius walter, CC BY-SA 4.0)

Aber wenn das CRISPR/Cas9-System ein so tolles Werkzeug ist, warum behandeln wir dann noch nicht alle möglichen Krankheiten damit? Das Potential wäre auf jeden Fall da. Diverse Erbkrankheiten könnten „einfach“ korrigiert werden. Schlimme Autoimmunerkrankungen könnten behandelt werden. Die Krebstherapie könnte enorme Fortschritte machen (beispielsweise könnten mit CRISPR heterologe CAR-T-Zellen hergestellt werden – was das ist findet ihr in meinem Text über die CAR-T-Zelltherapie). Oder Patient:innen mit Diabetes mellitus, gerade vom Typ 1, wären nicht mehr von einer lebenslangen Medikation abhängig.

Nun ja, ein Grund ist, dass wir das Potential des CRISPR/Cas9-Systems noch nicht so lange kennen und solche Dinge eben Zeit brauchen. Aber ein anderer gewichtiger Grund ist, dass noch einige Hürden überwunden werden müssen, bis aus CRISPR eine massentaugliche Therapieoption wird.

Schutzmechanismen und off target-Effekte

Ein – aus biologischer Sicht sehr spannendes – Problem ist, dass die Anwendung von CRISPR/Cas9 die Entstehung von Krebszellen fördern könnte. Laut eines Papers von 2018 lösen die Doppelstrangbrüche, die dabei entstehen, einen eingebauten Schutzmechanismus in Zellen aus: Den Zellzyklusarrest durch das Tumorsuppressorprotein p53. Das bedeutet einfach nur, dass die Zelle sich zum Schutz vor der Verbreitung von DNA-Schäden nicht weiter teilt (über den Tumorsuppressor p53 gibt es auch einen Blogbeitrag von mir, falls ihr gerne mehr darüber wissen wollt). Das führt dann aber dazu, dass bei der Anwendung von CRISPR Zellen selektiert werden, deren Schutzmechanismus defekt ist, da diese sich ja weiter teilen können. Solche Zellen sind dann deutlich anfälliger dafür, zu Krebszellen zu werden, da sich in ihnen einfacher Mutationen akkumulieren können.

CRISPR/Cas9-editierte Zellen könnten also ein größeres Risiko zur Entstehung von Tumoren bergen. Soweit ich weiß, gibt es dazu aber keine klinischen Daten. Gerade bei einer so neuartigen Therapie sollte das allerdings genau im Auge behalten werden. Denn für innovative Therapien, die seltene Krankheiten als Ziel haben oder deutlich besser zu sein versprechen als die bisherige Behandlung, gibt es beschleunigte Zulassungsverfahren – und das auch zurecht. Aber gerade langfristige Folgen wie Krebs könnten dabei erstmal unentdeckt bleiben.

Dann gibt es noch etwas, das off target-Effekte genannt wird. So nennt man es, wenn die guide RNA an andere Stellen der DNA bindet als beabsichtigt, die dann ebenfalls geschnitten werden. Dabei können dann möglicherweise wichtige Gene zerstört werden. Glücklicherweise ist es möglich, solche off target-Effekte mit computerbasierten oder experimentellen Methoden vorherzusagen – was dann für jeden neuen Therapieansatz nötig ist und z.B. auch bei Exa-Cel gemacht wurde.

Aber auch wenn die gewünschte Stelle der DNA geschnitten wird, können Probleme auftreten. Ein Paper ebenfalls von 2018 zeigt, dass es nicht nur zu kleinen indel-Mutationen kommen kann, sondern auch zu sehr großen Veränderung der DNA. Mehrere Kilobasen lange Stücke (das ist ziemlich lang) können deletiert werden, oder das Erbgut wird an dieser Stelle ganz umstrukturiert. Das kann dann wiederum auch andere Gene als nur das Ziel-Gen betreffen, obwohl die guide RNA an die richtige Stelle gebunden hat.

Vektoren und Immunantwort

Letztlich ist bei jeder CRISPR-basierten Therapie auch die Frage, ob sie in vivo oder ex vivo stattfindet, also innerhalb oder außerhalb der Patient:innen. Exa-Cel ist eine ex vivo-Therapie: Stammzellen werden den Patient:innen entnommen, genetisch verändert, und dann wieder eingesetzt. So ein Verfahren ist extrem aufwändig und teuer, und es geht auch mit Nachteilen für die Patient:innen einher. Beispielsweise müssen vor der Infusion von Exa-Cel alle vorhandenen Stammzellen des Knochenmarks mit Zytostatika zerstört werden, damit sich die editierten Stammzellen etablieren können.

Eine der größten Herausforderungen für die in vivo-Anwendung dagegen ist es, den richtigen Vektor zu finden. Denn irgendwie muss das CRISPR/Cas9-System seinen Weg in die richtigen Zellen finden. Dazu gibt es verschiedene Methoden, die jeweils ihre eigenen Vor- und Nachteile haben. Zur Wahl stehen u.a. virale Vektoren wie Lenti- oder Adeno-assoziierte Viren, Liposomen oder Nanopartikel.

Adeno-assoziiertes Virus. (PDB 7WJW)

Schnitt durch ein Liposom,

Alle Überlegungen auszuführen, die in der Wahl oder Entwicklung des passenden Vektors stecken, würde vermutlich einen eigenen Text benötigen. Aber ein wichtiger Punkt dabei ist die Immunreaktion, die der Vektor auslöst. Gerade virale Vektoren bergen das Potential, vom Immunsystem erkannt und bekämpft zu werden.

Aber tatsächlich ist das nicht nur ein Problem der Vektoren. Das Cas9-Protein selbst ist immunogen, und die Mehrzahl der Menschen besitzen Antikörper und T-Zellen, die gegen die gebräuchlichsten Cas9-Proteine gerichtet sind (beschrieben in diesem Paper). Da besteht dann natürlich die Gefahr, dass die Immunreaktion – auf Vektor oder Cas9 – die Therapie neutralisiert und zusätzlich Nebenwirkungen auslöst.

Das Potential der CRISPR-basierten Therapien

Ihr seht also, dass CRISPR keine Wunderwaffe ist, die alle Krankheiten heilen kann. Aber die Zulassung von Exa-Cel zeigt immerhin, dass CRISPR-basierte Therapien das Potential besitzen, welches wir – oder zumindest die Seriöseren unter uns – uns von ihnen erhofft hatten. Sie können eine ursächliche Behandlung für Krankheiten bieten, für die das ansonsten nur schwer oder gar nicht möglich wäre, und das ist eine extrem vielversprechende Aussicht.

Wir werden auf jeden Fall noch weitere CRISPR-basierte Therapien in die Klinik kommen sehen. Erstmal werden das aber teure und aufwändige Therapien bleiben, die eher selten angewendet werden. Bis CRISPR-basierte Therapien massentauglich sind, müssen noch einige Probleme gelöst werden. Wann und ob überhaupt das möglich ist, wird dann wohl die Zeit zeigen müssen.

Falls euch dieser Blogpost gefallen habt, abonniert doch gerne meinen Email-Newsletter, um keinen neuen Beitrag mehr zu verpassen. Oder lest doch den ersten Teil dieses Textes, falls ihr das noch nicht getan habt.

CRISPR-basierte Therapien, Teil 1: Exa-cel

Vor kurzem wurde in den USA und Großbritannien die erste auf CRISPR basierende Gentherapie überhaupt zugelassen. Seit seiner Entdeckung hat das CRISPR/Cas9-System der Biomedizin viele neue Möglichkeiten verschafft. So ist es schon lange ein selbstverständlicher Teil der Grundlagenforschung und hat seinen Entdeckerinnen einen mehr als verdienten Nobelpreis eingebracht. Und fast ebenso lange wird über das Potential für die Behandlung von Krankheiten gesprochen, das CRISPR besitzt.

Jetzt, da die erste auf CRISPR basierende Therapie – die übrigens den Namen Exa-cel trägt – zugelassen ist, möchte ich in diesem zweiteiligen Blogbeitrag einen genaueren Blick auf die therapeutische Anwendung von CRISPR werfen. Natürlich wird es um Exa-cel gehen, aber da darüber in den letzten Wochen schon sehr viel geschrieben wurde, werden wir uns vor allem die Chancen, Schwierigkeiten und Risiken anschauen, die CRISPR-basierte Therapien generell bereithalten.

Sichelzellanämie und β-Thalassämie

Exa-xel ist eine CRISPR-basierte Gentherapie für die beiden Erbkrankheiten Sichelzellanämie und β-Thalassämie. Bei beiden Krankheiten werden von Mutationen in dem Protein Hämoglobin verursacht, das für den Sauerstofftransport in Blut verantwortlich ist. (Etwas mehr über Hämoglobin erfahrt ihr in meinem Text über Häm).

Hämoglobin besteht aus vier Proteinketten, die sich zu einem großen Protein zusammenlagern. Zwei dieser Ketten werden α-Ketten genannt, und die anderen beiden β-Ketten. Mutationen in den β-Ketten führen dazu, dass bei der β-Thalassämie die Bildung neuer Erythrozyten – die roten Blutkörperchen, die Hämoglobin beherbergen und Sauerstoff transportieren – gestört ist. Die fehlerhaften β-Ketten bei der Sichelzellanämie verursachen eine Verformung der Erythrozyten. Sie werden weniger flexibel, verklumpen und können Blutgefäße verstopfen. Dadurch entstehen starke Schmerzen, eine Vielzahl von Organen wird geschädigt und die Patient:innen haben eine reduzierte Lebenserwartung. Zusätzlich werden Erythrozyten dauerhaft zerstört, sodass die Patient:innen unter einer chronischen Anämie – „Blutarmut“ – leiden.

Struktur von humanem Deoxy-Hämoglobin aus zwei alpha-Ketten (grün und orange) und zwei beta-Ketten (pink und violett). (PDB 1A3N)

Beide Erkrankungen werden bisher hauptsächlich mit einer Kombination aus Bluttransfusionen und medikamentöser Therapie behandelt. Keine der bisherigen Therapieoptionen kann tatsächlich die Ursache, die Bildung des mutierten Hämoglobins, bekämpfen.

Exagamglogen autotemcel, wie der der übertrieben umständliche, vollständige Name von Exa-cel lautet, ist die erste Möglichkeit, diese Krankheiten auch (auf eine gewisse Art) ursächlich zu bekämpfen.

Exa-cel

Die Therapie bedient sich dabei quasi eines Tricks. Denn Menschen besitzen nicht nur eine Form von Hämoglobin, sondern zwei. Ungeborene Kinder bilden ein anderes, das fetale Hämoglobin, das statt aus zwei α- und β-Ketten aus zwei α- und γ-Ketten besteht. In den ersten Lebensmonaten wird die Synthese des fetalen Hämoglobins allerdings ab- und die des „normalen“ Hämoglobins angeschaltet.

Weil das fetale Hämoglobin nicht aus β-Ketten besteht, funktioniert es auch ohne Probleme, wenn die schädlichen Mutationen im Gen für die β-Ketten vorliegen. Daher beginnen die Symptome bei Babys mit β-Thalassämie bzw. Sichelzellanämie erst nach einiger Zeit, nämlich wenn sie kein fetales Hämoglobin mehr bilden.

Die Idee hinter Exa-cel ist, die Synthese des fetalen Hämoglobins, das unabhängig von den Mutationen der β-Kette funktioniert, wieder zu aktivieren. Dazu werden den Patient:innen hämatopoetische Stammzellen entnommen, aus denen sich unter anderem die Erythrozyten entwickeln. Die Stammzellen werden mittels CRISPR/Cas9 – dazu gleich mehr – genetisch modifiziert.

Und zwar wird die Synthese des fetalen Hämoglobins normalerweise von dem Transkriptionsfaktor BCL11A – einem DNA-bindenden Protein – unterdrückt. Die Bildung dieses unterdrückenden Transkriptionsfaktors ist abhängig von einem DNA-Abschnitt, der als Enhancer bezeichnet wird. Enhancer sind Abschnitte im Genom von Eukaryoten, die häufig nötig sind, damit ein bestimmtes Gen exprimiert werden kann. Und dieser BCL11A-spezfische Enhancer ist nötig, damit der Transkriptionsfaktor, der die Synthese des fetalen Hämoglobins unterdrückt, gebildet werden kann. In den Enhancer wird jetzt eine Mutation eingeführt, die dafür sorgt, dass er nicht mehr funktioniert. Das wiederum bedeutet, dass es keinen unterdrückenden Transkriptionsfaktor BCL11A mehr gibt, und das heißt dann, dass der Bildung von fetalem Hämoglobin nichts mehr im Weg steht. (Diese Strategie wurde übrigens in diesem Paper von 2015 erstmals beschrieben.)

Die modifizierten Stammzellen werden den Patient:innen wieder zugeführt. Dort differenzieren sie sich (unter anderem) zu Erythrozyten, die jetzt dauerhaft funktionierendes fetales Hämoglobin besitzen.

Übersicht über das Hämoglobin der beiden Patient:innen in der ersten klinischen Studie zu Exa-cel. Nach Infusion von Exa-cel (CTX001) steigt der Anteil an fetalem Hämoglobin (blau) deutlich. (Quelle: Frangoul et al. 2021, DOI 10.1056/NEJMoa2031054)

2020 wurden erste Ergebnisse einer klinischen Studie an zwei Patientinnen veröffentlicht, und 2022 wurden weitere Studienergebnisse an 75 Patient:innen bei einem Kongress vorgestellt. Die Therapie weist zwar auch einige schwerwiegende Nebenwirkungen auf, führt aber zu einer deutlichen Verbesserung der Symptome, macht Bluttransfusionen überflüssig und ist – über den Untersuchungszeitraum – dauerhaft anhaltend.

Dieses Jahr wurde dann bekannt, dass Exa-cel als Therapie für Sichelzellanämie und β-Thalassämie sowohl in Großbritannien als auch den USA zugelassen wird.

CRISPR/Cas9

„Die Stammzellen werden mittels CRISPR/Cas9 genetisch modifiziert“, habe ich oben geschrieben. Das ist ja schön und gut, und davon haben wir ja wahrscheinlich alle schonmal gehört. Aber wie genau funktioniert das?

Das CRISPR/Cas9-System stammt ursprünglich aus Bakterien und Archaeen. Dort fungiert es als eine Art Immunsystem gegen den Angriff von Phagen – Viren, die Bakterien und Archaeen befallen. Denn was tun diese Phagen? Sie schleusen ihr eigenes Erbgut in die Bakterien und Archaeen ein. Daher brauchen diese eine Möglichkeit, fremde DNA zu zerstören: CRISPR/Cas9 (und viele weitere).

Das CRISPR/Cas9-System besteht aus drei Teilen: Ein RNA-Strang, der eine bestimmte DNA-Sequenz binden kann: die crRNA. Ein RNA-Strang, der an die crRNA bindet und eine bestimmte dreidimensionale Struktur, eine Haarnadelschleife formt: die tracrRNA. Und ein Enzym, das den Komplex aus crRNA und tracrRNA bindet: Cas9. Cas9 ist eine Endonuklease, also ein Enzym, das DNA-Stränge durchtrennen kann. Zusammen bindet dieser Komplex an eine bestimmte DNA-Sequenz und schneidet die DNA dort.

Doppelstrangbruch durch Cas9 in einer Zielsequenz, an die guide RNA / crRNA gebunden hat. (Bild: marius walter, CC BY-SA 4.0)

Das CRISPR/Cas9-System ist so extrem nützlich, weil man die DNA-bindende Sequenz der crRNA quasi beliebig ändern kann. Dadurch kann ein DNA-Strang an einer gewünschten Stelle gezielt geschnitten werden.

Wie immer gilt auch hier der der Disclaimer: in Realität ist das Ganze ein wenig komplizierter. Zum Beispiel gibt es verschiedene Cas-Proteine mit unterschiedlichen Eigenschaften, die zu schneidende DNA muss bestimmte Motive beinhalten und praktisch wird auch oft eine fusionierte Variante aus crRNA und tracrRNA, die single guide oder sgRNA, verwendet.

Wenn der DNA-Strang dann jedenfalls geschnitten ist, wird er auch wieder repariert. Bei dieser Reparatur wird der DNA-Strang aber oft nicht wieder korrekt zusammengefügt. Stattdessen werden in einem Prozess, der non-homologous end joining heißt, einige Nukleotide – die Bausteine der DNA – entfernt oder eingefügt. Solche indel-Mutationen (insertion und deletion) machen den geschnittenen DNA-Abschnitt oft funktionsunfähig, und tadaa, schon haben wir einen DNA-Abschnitt abgeschaltet.

Es ist auch außerdem möglich, mit dem CRISPR/Cas9-System gezielt DNA-Abschnitte an der Schnittstelle einzufügen, doch das ist nochmal eine etwas andere Geschichte.

Wo ist dabei der Haken?

Wenn das CRISPR/Cas9-System ein so tolles Werkzeug ist, warum behandeln wir dann noch nicht alle möglichen Krankheiten damit?

Darum wird es in Teil zwei dieses Textes gehen, der demnächst erscheinen wird. Darin werden wir uns dann anschauen, welche Probleme noch überwunden werden müssen, um CRISPR wirklich als effektive und massentaugliche Therapie nutzen zu können.

Wenn ihr das nicht verpassen wollt, dann abonniert doch am besten meinen Newsletter, dann werdet ihr direkt über neue Blogbeiträge informiert.

« Older posts

© 2024 PharmBlog

Theme by Anders NorenUp ↑

WordPress Cookie Notice by Real Cookie Banner