Gen

Inhaltsverzeichnis:

Gen
Gen

Video: Gen

Video: Gen
Video: DRX vs GEN Highlights Game 1 LCK Summer Season 2021 W5D5 DragonX vs Gen G by Onivia 2023, March
Anonim

Eintragsnavigation

  • Eintragsinhalt
  • Literaturverzeichnis
  • Akademische Werkzeuge
  • Freunde PDF Vorschau
  • Autor und Zitierinfo
  • Zurück nach oben

Gen

Erstveröffentlichung Di 26. Oktober 2004; inhaltliche Überarbeitung Do 19. Februar 2015

"Es kann kaum Zweifel geben", behauptete der Philosoph und Biochemiker Lenny Moss im Jahr 2003, "dass die Idee des Gens das zentrale Organisationsthema der Biologie des 20. Jahrhunderts war" (Moss 2003, xiii; vgl. Keller 2000, 9).. Und doch ist es klar, dass die Wissenschaft der Genetik niemals eine allgemein akzeptierte Definition des Gens geliefert hat. Mehr als hundert Jahre Genforschung haben eher zur Verbreitung einer Vielzahl von Genkonzepten geführt, die sich manchmal ergänzen, manchmal widersprechen. Einige Philosophen und Wissenschaftler haben versucht, diese Situation zu beheben, indem sie diese Vielzahl von Genkonzepten entweder "vertikal" auf eine grundlegende Einheit oder "horizontal" reduziert haben, indem sie sie unter einem allgemeinen Begriff zusammengefasst haben. Andere haben sich für pluralistischere Positionen entschieden. Als Konsequenz,„Das Gen“ist zu einem heißen Thema in der Wissenschaftsphilosophie geworden, um das Fragen der Reduktion, Entstehung oder Überwachung von Konzepten und Theorien (zusammen mit den epistemischen Entitäten, auf die sie sich beziehen) lebhaft diskutiert werden. Bisher waren jedoch alle Versuche, einen Konsens über diese Fragen zu erzielen, erfolglos. Seit der Fertigstellung der menschlichen Genomsequenz und dem Beginn der sogenannten Ära der Postgenomik erlebt die Genetik heute wieder eine Zeit des konzeptuellen Wandels. Das Konzept des Gens, das aus einem Jahrhundert genetischer Forschung hervorgegangen ist, war und ist, wie Raphael Falk uns vor nicht allzu langer Zeit erinnert hat, ein „Konzept in Spannung“(Falk 2000). Alle Versuche, einen Konsens über diese Fragen zu erzielen, waren erfolglos. Seit der Fertigstellung der menschlichen Genomsequenz und dem Beginn der sogenannten Ära der Postgenomik erlebt die Genetik heute wieder eine Zeit des konzeptuellen Wandels. Das Konzept des Gens, das aus einem Jahrhundert genetischer Forschung hervorgegangen ist, war und ist, wie Raphael Falk uns vor nicht allzu langer Zeit erinnert hat, ein „Konzept in Spannung“(Falk 2000). Alle Versuche, einen Konsens über diese Fragen zu erzielen, waren erfolglos. Seit der Fertigstellung der menschlichen Genomsequenz und dem Beginn der sogenannten Ära der Postgenomik erlebt die Genetik heute wieder eine Zeit des konzeptuellen Wandels. Das Konzept des Gens, das aus einem Jahrhundert genetischer Forschung hervorgegangen ist, war und ist, wie Raphael Falk uns vor nicht allzu langer Zeit erinnert hat, ein „Konzept in Spannung“(Falk 2000).wie Raphael Falk uns vor nicht allzu langer Zeit erinnert hat, ein „Konzept in Spannung“(Falk 2000).wie Raphael Falk uns vor nicht allzu langer Zeit erinnert hat, ein „Konzept in Spannung“(Falk 2000).

Das Layout des folgenden Artikels ist daher weitgehend historisch. Es gibt mehrere Berichte über die historische Entwicklung und Diversifizierung des Genkonzepts, die aus der Perspektive einer Ideengeschichte geschrieben wurden (Dunn 1965; Stubbe 1965; Carlson 1966, 2004; Schwartz 2008). Während wir weitgehend der in dieser Literatur festgelegten konventionellen Zeitlinie von Ereignissen folgen werden, werden wir eine etwas andere Perspektive einnehmen, indem wir Gene als epistemische Objekte betrachten, dh als Objekte, die einer laufenden Forschung unterzogen werden. Dies bedeutet, dass wir nicht nur etablierte Konzepte des „Gens“in Beziehung setzen, sondern vielmehr analysieren, wie veränderte experimentelle Praktiken und experimentelle Systeme solche Konzepte bestimmten und modifizierten (siehe auch den Eintrag zum Experiment in der Biologie). Nachdem auf diese Weise ein reiches historisches „Panorama“des Gens als „Konzept im Fluss“erstellt wurde,Um einen von Yehuda Elkana (1970; vgl. Falk 1986) eingeführten suggestiven Begriff aufzugreifen, werden einige allgemeinere philosophische Themen kurz angesprochen, für die das Gen als praktischer „Griff“in der Diskussion gedient hat. Diese drehen sich um das Thema Reduktion, beinhalten aber auch Fragen zur Kausalität in lebenden Systemen (für ausführlichere Darstellungen siehe Einträge zur Molekularbiologie, Molekulargenetik, biologischen Information und Reduktionismus in der Biologie; für eine aktuelle monographische Behandlung philosophischer Fragen zur Genetik; siehe Griffiths und Stotz 2013). Es geht aber auch um Fragen zur Kausalität in lebenden Systemen (für ausführlichere Darstellungen siehe Einträge zur Molekularbiologie, Molekulargenetik, biologischen Information und Reduktionismus in der Biologie; für eine aktuelle monographische Behandlung philosophischer Fragen zur Genetik siehe Griffiths und Stotz 2013). Es geht aber auch um Fragen zur Kausalität in lebenden Systemen (für ausführlichere Darstellungen siehe Einträge zur Molekularbiologie, Molekulargenetik, biologischen Information und Reduktionismus in der Biologie; für eine aktuelle monographische Behandlung philosophischer Fragen zur Genetik siehe Griffiths und Stotz 2013).

  • 1. Vorgeschichte des Gens
  • 2. Das Gen in der klassischen Genetik
  • 3. Das Gen in der Molekulargenetik
  • 4. Das Gen in Entwicklung und Evolution
  • 5. Die Frage der Reduktion
  • Literaturverzeichnis
  • Akademische Werkzeuge
  • Andere Internetquellen
  • Verwandte Einträge

1. Vorgeschichte des Gens

Bevor wir uns mit den historischen Stadien der verwickelten Entwicklung des Genkonzepts befassen, müssen wir sehen, wie es entstanden ist. Erst im 19. Jahrhundert wurde die Vererbung zu einem Hauptproblem in der Biologie (López Beltrán 2004; Müller-Wille und Rheinberger 2007 und 2012). Mit dem Aufkommen der Vererbung als biologisches Forschungsgebiet nahm die Frage nach ihrer materiellen Grundlage und ihrem Mechanismus Gestalt an. In der zweiten Hälfte des 19. Jahrhunderts wurden zwei alternative Rahmen vorgeschlagen, um diese Frage zu behandeln. Die erste stellte sich Vererbung als eine Kraft vor, deren Stärke sich über die Generationen angesammelt hatte und die als messbare Größe einer statistischen Analyse unterzogen werden konnte. Dieses Konzept war unter Züchtern des 19. Jahrhunderts besonders verbreitet (Gayon und Zallen 1998) und beeinflusste Francis Galton und die sogenannte „biometrische Schule“(Gayon 1998, 105-146). Der zweite Rahmen sah Vererbung als Materie an, die von einer Generation zur nächsten weitergegeben wurde. Hier sind zwei Haupttrends zu unterscheiden. Einer von ihnen betrachtete Erbgut als partikulär und für eine Züchtungsanalyse geeignet. Charles Darwin zum Beispiel nannte die vermuteten erblichen Partikel „Gemmules“; Hugo de Vries, "Pangenes". Keiner dieser Autoren des 19. Jahrhunderts dachte jedoch daran, diese Teilchen mit einer bestimmten erblichen Substanz in Verbindung zu bringen. Sie alle glaubten, dass sie aus dem gleichen Material bestanden, aus dem der Rest des Organismus bestand, so dass ihr bloßes WachstumRekombination und Akkumulation in Massen würden die besonderen Merkmale sichtbar machen, für die sie verantwortlich waren. Eine zweite Kategorie von Biologen in der zweiten Hälfte des neunzehnten Jahrhunderts, zu der Carl Naegeli und August Weismann gehörten, unterschied die Körpersubstanz, das „Trophoplasma“oder „Soma“, von einer bestimmten erblichen Substanz, dem „Idioplasma“oder dem „Keim“Plasma “, von dem angenommen wurde, dass es für die erbliche Kontinuität zwischen den Generationen verantwortlich ist. Sie betrachteten diese idioplasmische Substanz jedoch als nicht partikulär, sondern hoch organisiert. Im Fall von Weismann blieb es in den Keimzellen intakt, differenzierte sich jedoch während der Entwicklung in den Körperzellen irreversibel. Im Fall von Naegeli erstreckte es sich sogar von Zelle zu Zelle und über den gesamten Körper, ein dem Nervensystem analoges kapillares Erbsystem (Robinson 1979;Churchill 1987, Rheinberger 2008).

Mendel sticht unter diesen Biologen hervor, obwohl er innerhalb einer genau definierten botanischen Tradition der Hybridforschung arbeitete. Er gilt allgemein als Vorläufer der Genetik des 20. Jahrhunderts (siehe jedoch Olby 1979 und für eine neuere Diskussion Orel und Hartl 1997). Wie Jean Gayon argumentiert hat, griff Mendels Artikel von 1865 die Vererbung aus einem völlig neuen Blickwinkel an und interpretierte sie nicht als messbare Größe, wie es die biometrische Schule zu einem späteren Zeitpunkt tat, sondern als „bestimmte Organisationsebene“, als „Struktur in einer gegebene Generation, die im Kontext spezifischer Kreuze ausgedrückt werden soll. “Aus diesem Grund wendete Mendel einen „Kalkül der Unterschiede“, dh eine kombinatorische Mathematik, auf die Auflösung erblicher Phänomene an (Gayon 2000, 77-78). Damit,Er führte ein neues formales Werkzeug für die Analyse von Hybridisierungsexperimenten ein, das gleichzeitig auf einem neuen experimentellen Regime basierte: die Auswahl von Paaren alternativer und „konstanter“(dh vererbbarer) Merkmale. Mendel glaubte, dass diese Merkmale durch ein „konstantes Entwicklungsgesetz“mit bestimmten „Elementen“oder „Faktoren“in den Fortpflanzungszellen zusammenhängen, aus denen sich Organismen entwickelten. Eine Analyse der Verteilung alternativer Merkmale bei den Nachkommen von Hybriden könnte daher etwas über die Beziehung aussagen, die die zugrunde liegenden „Faktoren“eingegangen sind, als sie im hybriden Elternorganismus vereint waren (Müller-Wille und Orel 2007). Mendel glaubte, dass diese Merkmale durch ein „konstantes Entwicklungsgesetz“mit bestimmten „Elementen“oder „Faktoren“in den Fortpflanzungszellen zusammenhängen, aus denen sich Organismen entwickelten. Eine Analyse der Verteilung alternativer Merkmale bei den Nachkommen von Hybriden könnte daher etwas über die Beziehung aussagen, die die zugrunde liegenden „Faktoren“eingegangen sind, als sie im hybriden Elternorganismus vereint waren (Müller-Wille und Orel 2007). Mendel glaubte, dass diese Merkmale durch ein „konstantes Entwicklungsgesetz“mit bestimmten „Elementen“oder „Faktoren“in den Fortpflanzungszellen zusammenhängen, aus denen sich Organismen entwickelten. Eine Analyse der Verteilung alternativer Merkmale bei den Nachkommen von Hybriden könnte daher etwas über die Beziehung aussagen, die die zugrunde liegenden „Faktoren“eingegangen sind, als sie im hybriden Elternorganismus vereint waren (Müller-Wille und Orel 2007).

2. Das Gen in der klassischen Genetik

Das Jahr 1900 kann als Annus Mirabilis angesehen werden, der eine neue Disziplin hervorbrachte, die bald Genetik genannt wird. In diesem Jahr berichteten drei Botaniker, Hugo de Vries, Carl Correns und Erich Tschermak, über ihre Zuchtexperimente Ende der 1890er Jahre und behaupteten, die Regelmäßigkeiten bei der Übertragung von Charakteren von den Eltern auf die Nachkommen bestätigt zu haben, die Mendel bereits in seinem vorgestellt hatte wegweisende Arbeit von 1865 (Olby 1985, 109-37). Grundsätzlich beobachteten sie in ihren experimentellen Kreuzungen mit Zea mays, Pisum und Phaseolus, dass die Elemente, die für Paare alternativer Merkmale verantwortlich sind, „Allelomorphe“in der späteren Terminologie von William Bateson (1902), die bald unter der Abkürzung allgemein verwendet wurden von „Allelen“, die in der zweiten Filialgeneration zufällig getrennt wurden (Mendels Gesetz der Trennung),und dass diese Elemente unabhängig voneinander übertragen wurden (Mendels Gesetz des unabhängigen Sortiments). Die zusätzliche Beobachtung, dass sich manchmal mehrere Elemente so verhalten, als wären sie miteinander verbunden, trug zu der bald von Walter Sutton und Theodor Boveri vertretenen Annahme bei, dass sich diese Elemente in Gruppen auf verschiedenen Chromosomen im Kern befanden. Die Chromosomentheorie der Vererbung ging daher davon aus, dass die Regelmäßigkeiten der Charakterübertragung auf der Zytomorphologie beruhen, insbesondere auf der Kernmorphologie, bei der die einzelnen Chromosomen über Generationen hinweg ihre Identität behalten (Coleman 1965; Martins 1999).trug zu der bald von Walter Sutton und Theodor Boveri vertretenen Annahme bei, dass sich diese Elemente in Gruppen auf verschiedenen Chromosomen im Kern befinden. Die Chromosomentheorie der Vererbung ging daher davon aus, dass die Regelmäßigkeiten der Charakterübertragung auf der Zytomorphologie beruhen, insbesondere auf der Kernmorphologie, bei der die einzelnen Chromosomen über Generationen hinweg ihre Identität behalten (Coleman 1965; Martins 1999).trug zu der bald von Walter Sutton und Theodor Boveri vertretenen Annahme bei, dass sich diese Elemente in Gruppen auf verschiedenen Chromosomen im Kern befinden. Die Chromosomentheorie der Vererbung ging daher davon aus, dass die Regelmäßigkeiten der Charakterübertragung auf der Zytomorphologie beruhen, insbesondere auf der Kernmorphologie, bei der die einzelnen Chromosomen über Generationen hinweg ihre Identität behalten (Coleman 1965; Martins 1999).

Trotz anfänglichem Widerstand der biometrischen Schule (Provine 1971; Mackenzie und Barnes 1979) wuchs das Bewusstsein schnell, dass die Möglichkeit einer unabhängigen Zusammenstellung diskreter erblicher Faktoren gemäß den Wahrscheinlichkeitsgesetzen als Eckpfeiler eines neuen „Paradigmas“anzusehen war Erbschaft (Kim 1994). Dies ging nach einer anfänglichen Phase der Verschmelzung durch das, was Elof Carlson den „Einheits-Charakter-Irrtum“nannte (Carlson 1966, Kap. 4), mit der Etablierung einer kategorischen Unterscheidung zwischen genetischen Faktoren einerseits und Merkmalen oder Charakteren andererseits einher Hand. Der Maskierungseffekt dominanter Merkmale gegenüber rezessiven Merkmalen und das anschließende Wiederauftreten rezessiver Merkmale trugen besonders zur Stabilisierung dieser Unterscheidung bei (Falk 2001). Darüber hinaus stimmte es mit dem früheren Konzept zweier materieller Regime überein,ein Keim und ein Körper, bereits von Naegeli und Weismann gefördert.

Wenn jedoch - wie Correns in seiner ersten Rezension zur neuen Mendelschen Literatur im Jahr 1901 feststellte - „wir die Idee einer dauerhaften Fixierung [der erblichen Faktoren] im Keimplasma nicht aufrechterhalten können, sondern aufgrund ihrer Mischbarkeit einige davon annehmen müssen Mobilität zumindest zu bestimmten Zeiten “, und wenn eine chromosomale Kopplung ein möglicher, aber kein notwendiger und allgemeiner Mechanismus war, um Struktur zur Vererbung zu übertragen, wie sollte man den sukzessiven und regelmäßigen physiologischen Einsatz der Dispositionen (Anlagen) in der geordneten Entwicklung erklären? des Organismus? Um diese Schwierigkeit zu lösen, entwickelte Correns Folgendes, wie er es nannte, „Häresie“:

Ich schlage vor, den Ort der Anlagen ohne dauerhafte Fixierung im Kern zu haben, insbesondere in den Chromosomen. Außerdem nehme ich außerhalb des Kerns im Protoplasma einen Mechanismus an, der für ihren Einsatz sorgt. Dann können die Anlagen wie die farbigen kleinen Steine in einem Kaleidoskop gemischt werden; und doch entfalten sie sich am richtigen Ort ([1901], zitiert aus Correns 1924, 279).

Auf diese Weise unterschied Correns zu Beginn des ersten Jahrzehnts des 20. Jahrhunderts einen Erbraum mit einer unabhängigen Logik und Metrik von einem anderen physiologischen und Entwicklungsraum, der durch das Zytoplasma repräsentiert wird. Gegen Ende des ersten Jahrzehnts des 20. Jahrhunderts, nachdem Bateson 1906 den Begriff Genetik für das aufkommende neue Gebiet der Übertragungsstudien geprägt hatte, kodifizierte Wilhelm Johannsen diese Unterscheidung, indem er die Begriffe Genotyp bzw. Phänotyp für diese beiden Räume einführte. Im Gegensatz zu Correns betrachtete Johannsen Genotyope und Phänotyp als abstrakte Einheiten, beschränkte sie jedoch nicht auf bestimmte zelluläre Räume und blieb sein Leben lang skeptisch gegenüber der Chromosomentheorie der Vererbung. Zusätzlich schlug Johannsen für die Elemente des Genotyps den Begriff des Gens vor,was für ihn ein Konzept „völlig frei von jeglicher Hypothese“in Bezug auf Lokalisierung und materielle Konstitution war (Johannsen 1909, 124).

Johannsens Kodifizierung, die auf dem Ansatz der Mikrobiologie „Reinkultur“, den Züchterpraktiken zur Trennung von „Reinlinien“sowie Richard Wolterecks Vorstellung einer angeborenen „Norm der Reaktion“beruhte, wurde von der Genetikgemeinschaft nach und nach aufgegriffen und tiefgreifend geprägt die gesamte Biologie des 20. Jahrhunderts (Allen 2002, Müller-Wille 2007). Wir können mit Sicherheit sagen, dass es das Gen als ein epistemisches Objekt eingeführt hat, das in seinem richtigen Raum untersucht werden soll, und damit eine „exakte, experimentelle Vererbungslehre“(Johannsen 1909, 1), die sich nur auf die Übertragung und nicht auf die Entwicklung von konzentrierte der Organismus in seiner Umgebung. Einige Historiker haben von einer „Trennung“von genetischen von embryologischen Bedenken hinsichtlich dieser Trennung gesprochen (Allen 1986; Bowler 1989). Andere sind der Ansicht, dass diese Trennung selbst Ausdruck der embryologischen Interessen der frühen Genetiker bei ihrer Suche nach „Entwicklungsinvarianten“war (Gilbert 1978; Griesemer 2000). Wie dem auch sei, das Ergebnis war, dass die Beziehungen zwischen den beiden Räumen, die einst durch Abstraktion getrennt waren, nun selbst experimentell aufgeklärt wurden (Falk 1995). Michel Morange stellte fest, dass diese „Aufteilung logisch absurd“war - im Nachhinein aber „historisch und wissenschaftlich notwendig“(Morange 2001, 9). Michel Morange stellte fest, dass diese „Aufteilung logisch absurd“war - im Nachhinein aber „historisch und wissenschaftlich notwendig“(Morange 2001, 9). Michel Morange stellte fest, dass diese „Aufteilung logisch absurd“war - im Nachhinein aber „historisch und wissenschaftlich notwendig“(Morange 2001, 9).

Johannsen selbst betonte, dass der Genotyp als unabhängig von jeglicher Lebensgeschichte und damit zumindest innerhalb der Grenzen der Zeit, in der die Forschung betrieben wurde, als eine „ahistorische“Einheit behandelt werden müsse, die einer wissenschaftlichen Untersuchung wie den Objekten der Physik und Chemie zugänglich sei (Johannsen) 1911, 139, vgl. Churchill 1974; Roll-Hansen 1978 a). „Die persönlichen Eigenschaften eines einzelnen Organismus verursachen überhaupt nicht die Eigenschaften seiner Nachkommen. Aber die Eigenschaften sowohl der Vorfahren als auch der Nachkommen werden auf die gleiche Weise von der Natur der sexuellen Substanzen bestimmt “, behauptete Johannsen (Johannsen 1911, 130). Im Gegensatz zu den meisten Mendelianern blieb er jedoch davon überzeugt, dass der Genotyp eine Gesamtarchitektur besitzen würde - wie im Begriff „Typ“ausgedrückt. Er hatte daher Vorbehalte hinsichtlich seiner Partikelhaftigkeit,und warnte insbesondere davor, dass der Begriff „Gene für einen bestimmten Charakter“immer vorsichtig verwendet werden sollte, wenn er nicht ganz weggelassen wird (Johannsen 1911, 147). Auch in Bezug auf die materielle Konstitution des Genotyps und seiner Elemente blieb Johannsen bewusst agnostisch. Er erkannte deutlich, dass das experimentelle Regime der Mendelschen Genetik, obwohl es in seinem Charakter wie Physik oder Chemie wissenschaftlich ist, keine eindeutige Annahme über die materielle Struktur der genetischen Elemente erforderte oder zuließ. "Persönlich", schrieb er erst 1923, "glaube ich an ein großes zentrales Etwas, das noch nicht in einzelne Faktoren unterteilt werden kann" und identifizierte dieses "Etwas" mit der spezifischen Natur des Organismus. "Die Tresterfliegen in Morgans großartigen Experimenten", erklärte er."Sind weiterhin Tresterfliegen, auch wenn sie alle guten Gene verlieren, die für ein normales Fliegenleben notwendig sind, oder wenn sie mit all den schlechten Genen besessen sind, die sich nachteilig auf das Wohl dieses kleinen Freundes des Genetikers auswirken" (Johannsen 1923, 137)).

Aus diesem Grund wurden Gene als abstrakte Elemente eines ebenso abstrakten Raums betrachtet, dessen Struktur jedoch durch das sichtbare und quantifizierbare Ergebnis von Züchtungsexperimenten untersucht werden konnte, die auf Modellorganismen und ihren Mutanten basierten. Dies wurde das Forschungsprogramm von Thomas Hunt Morgan und seiner Gruppe. Von den frühen 1910er bis in die 1930er Jahre verwendete die wachsende Gemeinschaft von Forschern um Morgan und ihre Anhänger Mutanten der Fruchtfliege Drosophila melanogaster, die auf immer ausgefeiltere Weise konstruiert wurden, um eine Karte des Genotyps der Fruchtfliegen zu erstellen, in dem Gene, und Allele davon, dargestellt als genetische Marker, die einen bestimmten Ort auf einem der vier homologen Chromosomenpaare der Fliege besetzen (Kohler 1994). Die Grundannahmen, die es dem Programm ermöglichten, zu arbeiten, waren, dass Gene in einer linearen Reihenfolge entlang der verschiedenen Chromosomen lokalisiert waren (wie "Perlen an einer Schnur", wie Morgan es 1926 ausdrückte, 24) und dass die Häufigkeit von Rekombinationsereignissen zwischen homologen Chromosomen Das heißt, die Häufigkeit von Überkreuzungen während der Reduktionsteilung ergab ein Maß für den Abstand zwischen den Genen und definierte sie gleichzeitig als Rekombinationseinheiten (Morgan et al. 1915).

In dieser Praxis wurden identifizierbare Aspekte des Phänotyps, von denen angenommen wird, dass sie bewusst von Genen in bewusster Black-Box-Weise bestimmt werden, als Indikatoren oder Fenster für einen Ausblick auf die formale Struktur des Genotyps verwendet. Dies ist, was Moss das "Gen-P" genannt hat (P steht für Phänotyp, aber auch für Präformationist; Moss 2003, 45 - für das Gegenstück, das "Gen-D", siehe unten). Während seiner gesamten Karriere war sich Morgan des formalen Charakters seines Programms bewusst. Noch 1933 erklärte er anlässlich seiner Nobelansprache: „Auf der Ebene, auf der die genetischen Experimente liegen, macht es nicht den geringsten Unterschied, ob das Gen eine hypothetische Einheit ist oder ob das Gen ein materielles Teilchen ist.“(Morgan 1935, 3). Insbesondere war es egal, ob eins zu eins,oder kompliziertere Beziehungen zwischen Genen und Merkmalen herrschten (Waters 1994). Morgan und seine Schule waren sich bewusst, dass in der Regel viele Gene an der Entwicklung eines bestimmten Merkmals wie z. B. der Augenfarbe beteiligt waren und dass ein Gen mehrere Charaktere beeinflussen könnte. Um dieser Schwierigkeit gerecht zu werden und ihrem experimentellen Regime zu entsprechen, haben sie ein differenziertes Konzept des Gens angenommen. Was für sie wichtig war, war die Beziehung zwischen einer Veränderung eines Gens und einer Veränderung eines Merkmals und nicht die Natur dieser Entitäten selbst. Somit könnte die Veränderung eines Merkmals kausal mit einer Veränderung (oder einem Verlust) eines einzelnen genetischen Faktors zusammenhängen, selbst wenn es im Allgemeinen plausibel wäre, dass ein Merkmal wie die Augenfarbe tatsächlich von einer ganzen Gruppe von Personen bestimmt wurde unterschiedlich interagierende Gene (Roll-Hansen 1978 b; Schwartz 2000). Morgan und seine Schule waren sich bewusst, dass in der Regel viele Gene an der Entwicklung eines bestimmten Merkmals wie z. B. der Augenfarbe beteiligt waren und dass ein Gen mehrere Charaktere beeinflussen könnte. Um dieser Schwierigkeit gerecht zu werden und ihrem experimentellen Regime zu entsprechen, haben sie ein differenziertes Konzept des Gens angenommen. Was für sie wichtig war, war die Beziehung zwischen einer Veränderung eines Gens und einer Veränderung eines Merkmals und nicht die Natur dieser Entitäten selbst. Somit könnte die Veränderung eines Merkmals kausal mit einer Veränderung (oder einem Verlust) eines einzelnen genetischen Faktors zusammenhängen, selbst wenn es im Allgemeinen plausibel wäre, dass ein Merkmal wie die Augenfarbe tatsächlich von einer ganzen Gruppe von Personen bestimmt wurde unterschiedlich interagierende Gene (Roll-Hansen 1978 b; Schwartz 2000). Morgan und seine Schule waren sich bewusst, dass in der Regel viele Gene an der Entwicklung eines bestimmten Merkmals wie z. B. der Augenfarbe beteiligt waren und dass ein Gen mehrere Charaktere beeinflussen könnte. Um dieser Schwierigkeit gerecht zu werden und ihrem experimentellen Regime zu entsprechen, haben sie ein differenziertes Konzept des Gens angenommen. Was für sie wichtig war, war die Beziehung zwischen einer Veränderung eines Gens und einer Veränderung eines Merkmals und nicht die Natur dieser Entitäten selbst. Somit könnte die Veränderung eines Merkmals kausal mit einer Veränderung (oder einem Verlust) eines einzelnen genetischen Faktors zusammenhängen, selbst wenn es im Allgemeinen plausibel wäre, dass ein Merkmal wie die Augenfarbe tatsächlich von einer ganzen Gruppe von Personen bestimmt wurde unterschiedlich interagierende Gene (Roll-Hansen 1978 b; Schwartz 2000). Viele Gene waren an der Entwicklung eines bestimmten Merkmals beteiligt, z. B. der Augenfarbe, und dieses eine Gen könnte mehrere Charaktere beeinflussen. Um dieser Schwierigkeit gerecht zu werden und ihrem experimentellen Regime zu entsprechen, haben sie ein differenziertes Konzept des Gens angenommen. Was für sie wichtig war, war die Beziehung zwischen einer Veränderung eines Gens und einer Veränderung eines Merkmals und nicht die Natur dieser Entitäten selbst. Somit könnte die Veränderung eines Merkmals kausal mit einer Veränderung (oder einem Verlust) eines einzelnen genetischen Faktors zusammenhängen, selbst wenn es im Allgemeinen plausibel wäre, dass ein Merkmal wie die Augenfarbe tatsächlich von einer ganzen Gruppe von Personen bestimmt wurde unterschiedlich interagierende Gene (Roll-Hansen 1978 b; Schwartz 2000). Viele Gene waren an der Entwicklung eines bestimmten Merkmals beteiligt, z. B. der Augenfarbe, und dieses eine Gen könnte mehrere Charaktere beeinflussen. Um dieser Schwierigkeit gerecht zu werden und ihrem experimentellen Regime zu entsprechen, haben sie ein differenziertes Konzept des Gens angenommen. Was für sie wichtig war, war die Beziehung zwischen einer Veränderung eines Gens und einer Veränderung eines Merkmals und nicht die Natur dieser Entitäten selbst. Somit könnte die Veränderung eines Merkmals kausal mit einer Veränderung (oder einem Verlust) eines einzelnen genetischen Faktors zusammenhängen, selbst wenn es im Allgemeinen plausibel wäre, dass ein Merkmal wie die Augenfarbe tatsächlich von einer ganzen Gruppe von Personen bestimmt wurde unterschiedlich interagierende Gene (Roll-Hansen 1978 b; Schwartz 2000). Sie befürworteten ein differenziertes Konzept des Gens. Was für sie wichtig war, war die Beziehung zwischen einer Veränderung eines Gens und einer Veränderung eines Merkmals und nicht die Natur dieser Entitäten selbst. Somit könnte die Veränderung eines Merkmals kausal mit einer Veränderung (oder einem Verlust) eines einzelnen genetischen Faktors zusammenhängen, selbst wenn es im Allgemeinen plausibel wäre, dass ein Merkmal wie die Augenfarbe tatsächlich von einer ganzen Gruppe von Personen bestimmt wurde unterschiedlich interagierende Gene (Roll-Hansen 1978 b; Schwartz 2000). Sie befürworteten ein differenziertes Konzept des Gens. Was für sie wichtig war, war die Beziehung zwischen einer Veränderung eines Gens und einer Veränderung eines Merkmals und nicht die Natur dieser Entitäten selbst. Somit könnte die Veränderung eines Merkmals kausal mit einer Veränderung (oder einem Verlust) eines einzelnen genetischen Faktors zusammenhängen, selbst wenn es im Allgemeinen plausibel wäre, dass ein Merkmal wie die Augenfarbe tatsächlich von einer ganzen Gruppe von Personen bestimmt wurde unterschiedlich interagierende Gene (Roll-Hansen 1978 b; Schwartz 2000).bestimmt durch eine ganze Gruppe unterschiedlich interagierender Gene (Roll-Hansen 1978 b; Schwartz 2000).bestimmt durch eine ganze Gruppe unterschiedlich interagierender Gene (Roll-Hansen 1978 b; Schwartz 2000).

Die Faszination dieses Genkonzepts bestand darin, dass es bei richtiger Anwendung wie ein Präzisionsinstrument in Entwicklungs- und Evolutionsstudien funktionierte. Einerseits ermöglichte das klassische Gen die Identifizierung von Entwicklungsprozessen über Generationen hinweg. Infolgedessen wurden Verfahren der klassischen Genetik bald in die Vielzahl von Methoden integriert, die Embryologen seit Ende des 19. Jahrhunderts entwickelt hatten, um die Entwicklung zu „verfolgen“. (Griesemer 2007). Auf der anderen Seite könnten mathematische Populationsgenetiker wie Ronald A. Fisher, JBS Haldane und Sewall Wright das klassische Gen mit gleicher Genauigkeit und Präzision nutzen, um testbare mathematische Modelle zu entwickeln, die die Auswirkungen evolutionärer Faktoren wie Selektion und Mutation auf das Gen beschreiben Zusammensetzung der Populationen (Provine 1971). In der Folge wurde die Evolution als eine Änderung der Genfrequenzen im Genpool einer Population in der sogenannten "evolutionären", "neo-darwinistischen" oder einfach "modernen Synthese" der späten 1930er und frühen 1940er Jahre neu definiert (Mayr & Provine 1980, Gayon 1998). Das klassische Gen wurde als „entwicklungsinvariant“in der Reproduktion angesehen und befolgte bei seiner Übertragung von einer Generation zur nächsten ausschließlich die Mendelschen Gesetze. Es lieferte eine Art Trägheitsprinzip, gegen das die Auswirkungen beider Entwicklungen (Epistase, Hemmung, Positionseffekte usw.)) und evolutionäre Faktoren (Selektion, Mutation, Isolierung, Rekombination usw.) konnten mit äußerster Genauigkeit gemessen werden (Gayon 1995, 74). Wir werden die evolutionäre Synthese im dritten Abschnitt noch einmal betrachten. für den Rest dieses AbschnittsWir möchten uns der frühen Geschichte der Entwicklungsgenetik zuwenden, die eine wichtige Rolle bei der eventuellen „Verdinglichung“des Gens spielte.

Trotz des formalen Charakters des klassischen Gens wurde es in den 1920er Jahren von vielen Genetikern, darunter Morgans Student Herman J. Muller, zur Überzeugung, dass Gene materielle Partikel sein müssen. Müller sah Gene grundsätzlich mit zwei Eigenschaften ausgestattet: der Autokatalyse und der Heterokatalyse. Ihre autokatalytische Funktion ermöglichte es ihnen, sich als Übertragungseinheiten zu reproduzieren und so den Genotyp einer Generation mit dem der nächsten zu verbinden. Ihre damit einhergehende Fähigkeit, Mutationen nach ihrem Auftreten getreu zu reproduzieren, führte aus diesem Grund zur Möglichkeit der Evolution. Ihre heterokatalytischen Fähigkeiten verbanden sie mit dem Phänotyp als Funktionseinheiten, die an der Expression eines bestimmten Charakters beteiligt sind. Mit seiner eigenen experimentellen Arbeit fügte Müller ein bedeutendes Argument für die Materialität des Gens hinzu:in Bezug auf den dritten Aspekt des Gens als Mutationseinheit. 1927 berichtete er über die Induktion von Mendelschen Mutationen in Drosophila unter Verwendung von Röntgenstrahlen. Er war nicht der erste, der Strahlung zur Induktion von Mutationen einsetzte, zeichnet sich jedoch durch seine Schlussfolgerung aus, dass Röntgenstrahlen Mutationen verursachten, indem sie eine bestimmte Molekülstruktur dauerhaft veränderten, wodurch in den 1930er und 1930er Jahren eine ganze „Industrie“der Strahlengenetik entstand 1940er Jahre.

Die experimentelle Praxis des Röntgenstrahlens allein konnte jedoch nicht den Weg zu einer materiellen Charakterisierung von Genen als Vererbungseinheiten ebnen. Anlässlich des fünfzigsten Jahrestages der Wiederentdeckung von Mendels Werk im Jahr 1950 musste Müller daher gestehen: „Der wahre Kern der Gentheorie scheint immer noch im tiefen Unbekannten zu liegen. Das heißt, wir haben noch keine tatsächliche Kenntnis des Mechanismus, der dieser einzigartigen Eigenschaft zugrunde liegt, die ein Gen zu einem Gen macht - seiner Fähigkeit, die Synthese einer anderen Struktur wie sich selbst zu bewirken, [in] die sogar die Mutationen des ursprünglichen Gens kopiert werden. [Wir] kennen solche Dinge in der Chemie noch nicht “(Müller 1951, 95-96).

In der Zwischenzeit hatte die zytologische Arbeit auch der Materialität von Genen auf Chromosomen mehr Glaubwürdigkeit verliehen. Gleichzeitig wurde der Begriff des klassischen Gens jedoch weiter kompliziert. In den 1930er Jahren korrelierte der Zytogenetiker Theophilus Painter formale Muster der Verschiebung genetischer Loci auf Morganschen Chromosomenkarten mit entsprechenden sichtbaren Veränderungen im Bandenmuster der Chromosomen der riesigen Speicheldrüsen von Drosophila. Barbara McClintock konnte mit ihrem Mikroskop die durch Röntgenstrahlen in den Chromosomen von Zea mays (Mais) induzierten Veränderungen, Translokationen, Inversionen und Deletionen verfolgen. Gleichzeitig hatte Alfred Sturtevant in seiner experimentellen Arbeit über den Bar-Eye-Effekt in Drosophila Ende der 1920er Jahre gezeigt, was als Positionseffekt bezeichnet wurde:Die Expression einer Mutation war abhängig von der Position, die das entsprechende Gen im Chromosom einnahm. Dieser Befund löste weitreichende Diskussionen darüber aus, was Müller den heterokatalytischen Aspekt eines Gens genannt hatte, nämlich seine funktionelle Assoziation mit der Expression eines bestimmten phänotypischen Merkmals. Wenn eine Genfunktion von ihrer Position auf dem Chromosom abhing, wurde fraglich, ob diese Funktion überhaupt stabil mit diesem Gen verbunden war oder wie Richard Goldschmidt später annahm, ob die physiologische Funktion nicht insgesamt eine Frage der Organisation des genetischen Materials war ein Ganzes statt partikulärer Gene (Goldschmidt 1940; vgl. Dietrich 2000 und Richmond 2007). Dieser Befund löste weitreichende Diskussionen darüber aus, was Müller den heterokatalytischen Aspekt eines Gens genannt hatte, nämlich seine funktionelle Assoziation mit der Expression eines bestimmten phänotypischen Merkmals. Wenn eine Genfunktion von ihrer Position auf dem Chromosom abhing, wurde fraglich, ob diese Funktion überhaupt stabil mit diesem Gen verbunden war oder wie Richard Goldschmidt später annahm, ob die physiologische Funktion nicht insgesamt eine Frage der Organisation des genetischen Materials war ein Ganzes statt partikulärer Gene (Goldschmidt 1940; vgl. Dietrich 2000 und Richmond 2007). Dieser Befund löste weitreichende Diskussionen darüber aus, was Müller den heterokatalytischen Aspekt eines Gens genannt hatte, nämlich seine funktionelle Assoziation mit der Expression eines bestimmten phänotypischen Merkmals. Wenn eine Genfunktion von ihrer Position auf dem Chromosom abhing, wurde fraglich, ob diese Funktion überhaupt stabil mit diesem Gen verbunden war oder wie Richard Goldschmidt später annahm, ob die physiologische Funktion nicht insgesamt eine Frage der Organisation des genetischen Materials war ein Ganzes statt partikulärer Gene (Goldschmidt 1940; vgl. Dietrich 2000 und Richmond 2007).oder wie Richard Goldschmidt später annahm, ob die physiologische Funktion nicht insgesamt eine Frage der Organisation des genetischen Materials als Ganzes und nicht der partikulären Gene war (Goldschmidt 1940; vgl. Dietrich 2000 und Richmond 2007).oder wie Richard Goldschmidt später annahm, ob die physiologische Funktion nicht insgesamt eine Frage der Organisation des genetischen Materials als Ganzes und nicht der partikulären Gene war (Goldschmidt 1940; vgl. Dietrich 2000 und Richmond 2007).

Bisher waren alle experimentellen Ansätze auf dem neuen Gebiet der Genetik und ihren vermuteten Elementen, den Genen, in Bezug auf die beiden grundlegenden Muller-Aspekte des Gens still geblieben: seine autokatalytische und seine heterokatalytische Funktion. Gegen Ende der 1930er Jahre hatte Max Delbrück die Intuition, dass die Frage der Autokatalyse, dh der Replikation, durch die Untersuchung von Phagen, dh Viren, die sich in Bakterien replizieren, angegriffen werden könnte. Es wurde jedoch festgestellt, dass das Phagensystem, das er in den 1940er Jahren etablierte, weitgehend so formal blieb wie das der klassischen Drosophila-Genetik. Seymour Benzer beispielsweise verwendete dieses System auf völlig „klassische“Weise, um das Auflösungsvermögen genetischer Kartierungstechniken auf Entfernungen von wenigen Nukleotidpaaren zu erhöhen und so den Grundstein für die Francis Cricks-Sequenzhypothese zu legen. Interessanterweise kam Benzer zu dem Schluss, dass „Gen“ein „Schimpfwort“ist, da sich die abgeleiteten molekularen Dimensionen des Gens als Einheit von Funktion, Rekombination und Mutation deutlich unterscheiden. Infolgedessen schlug er vor, genetische Elemente als Cistrons, Recons bzw. Mutons zu bezeichnen (Holmes 2006).

Etwa zur gleichen Zeit konnten Alfred Kühn und seine Gruppe sowie Boris Ephrussi mit George Beadle ein Fenster zum Raum zwischen dem Gen und seiner vermuteten physiologischen Funktion öffnen, indem sie Organe zwischen mutierten und Wildtyp-Insekten transplantierten. Bei der Untersuchung der Pigmentierung von Insektenaugen stellten sie fest, dass Gene nicht direkt zu physiologischen Substanzen führten, sondern dass sie offensichtlich zuerst eine sogenannte „Primärreaktion“initiierten, die zu Fermenten oder Enzymen führte, die wiederum bestimmte Schritte in Stoffwechselreaktionskaskaden katalysierten. 1941 fasste Kühn die Perspektive dieser Art von "entwicklungsphysiologischer Genetik" zusammen, wie er sie nannte:

Wir stehen nur am Anfang eines riesigen Forschungsbereichs. [Unsere] Wahrnehmung des Ausdrucks erblicher Merkmale ändert sich von einer mehr oder weniger statischen und präformistischen Konzeption zu einer dynamischen und epigenetischen. Die formale Korrelation einzelner Gene, die bestimmten Orten auf den Chromosomen zugeordnet sind, mit bestimmten Zeichen hat nur eine begrenzte Bedeutung. Jeder Schritt bei der Realisierung von Charakteren ist sozusagen ein Knoten in einem Netzwerk von Reaktionsketten, von denen viele Genaktionen ausgehen. Ein Merkmal scheint nur dann eine einfache Korrelation zu einem Gen zu haben, wenn die anderen Gene derselben Aktionskette und anderer Aktionsketten, die Teil desselben Knotens sind, gleich bleiben. Nur eine methodisch durchgeführte genetische,Die entwicklungs- und physiologische Analyse einer Vielzahl von Einzelmutationen kann nach und nach die treibende Wirkung der Wirkgetriebe der Erbanlagen aufzeigen (Kühn 1941, 258).

Kühn betrachtete seine Experimente als Beginn einer Neuorientierung weg von dem, was er als neuen Präformationismus der Übertragungsgenetik empfand (Rheinberger 2000a). Er plädierte für eine Epigenetik, die genetische, entwicklungsbezogene und physiologische Analysen kombiniert, um die Heterokatalyse, dh die Expression eines Gens, als Ergebnis einer Wechselwirkung zweier Reaktionsketten zu definieren, von denen eine von Genen zu bestimmten Fermenten führt und die andere von ein metabolisches Zwischenprodukt zum nächsten durch die Intervention dieser Fermente, was zu komplexen epigenetischen Netzwerken führt. Seine eigene experimentelle Praxis in den 1940er Jahren führte ihn jedoch dazu, den Weg der Augenpigmentbildung in Ephestia kühniella (der Mehlmotte) zu vollenden. Er versuchte nicht, experimentelle Instrumente zu entwickeln, um die in den Prozess involvierten Gen-Enzym-Beziehungen selbst anzugreifen. Auf der anderen Seite des Atlantiks kodifizierten George Beadle und Edward Tatum, die mit Kulturen von Neurospora crassa arbeiteten, die letztere Verbindung in die Ein-Gen-Ein-Enzym-Hypothese. Aber auch für sie blieb der materielle Charakter von Genen und die Art und Weise, wie diese mutmaßlichen Einheiten zu Primärprodukten führten, schwer fassbar und außerhalb der Reichweite ihrer eigenen biochemischen Analyse. Der materielle Charakter von Genen und die Art und Weise, wie diese mutmaßlichen Einheiten zu Primärprodukten führten, blieben schwer fassbar und außerhalb der Reichweite ihrer eigenen biochemischen Analyse. Der materielle Charakter von Genen und die Art und Weise, wie diese mutmaßlichen Einheiten zu Primärprodukten führten, blieben schwer fassbar und außerhalb der Reichweite ihrer eigenen biochemischen Analyse.

So war das Gen in der klassischen Genetik bereits in den 1940er Jahren weit davon entfernt, ein einfacher Begriff zu sein, der einer einfachen Entität entspricht. Die klassischen Genetiker betrachteten das Gen als eine Einheit von Übertragung, Rekombination, Mutation und Funktion und kombinierten verschiedene Aspekte erblicher Phänomene, deren Wechselbeziehungen sich in der Regel als nicht einfache Eins-zu-Eins-Beziehungen herausstellten. Aufgrund des Mangels an Wissen über die materielle Natur des Gens blieb das klassische Gen jedoch ein weitgehend formales und operatives Konzept, das indirekt durch die Erfolge bei der Erklärung und Vorhersage experimenteller Ergebnisse begründet werden musste. Ungeachtet dieses Mangels führten die zunehmenden Erfolge der verschiedenen Forschungsbereiche, die mit der klassischen Genetik verbunden sind, zu einer „Verhärtung“des Glaubens an das Gen als diskrete, materielle Einheit (Falk 2000,323-26).

3. Das Gen in der Molekulargenetik

Die von Kühn sowie von Beadle und Tatum ins Auge gefasste Enzymansicht der Genfunktion gab der Idee der genetischen Spezifität, wenn auch mit vorsichtiger Zurückhaltung, eine neue Wendung und ebnete den Weg für die Molekularisierung des Gens, dem dieser Abschnitt gewidmet sein wird (siehe auch Kay 1993). Gleiches gilt für die Ergebnisse von Oswald Avery und seinen Kollegen in den frühen 1940er Jahren. Sie reinigten die Desoxyribonulasäure eines Bakterienstamms und zeigten, dass sie die infektiösen Eigenschaften dieses Stammes auf einen anderen, harmlosen übertragen konnte. Der historische Weg, der zum Verständnis der Natur des molekularen Gens führte, war jedoch keine direkte Fortsetzung der klassischen Genetik (vgl. Olby 1974 und Morange 2000a). Es war eher eingebettet in eine umfassende Molekularisierung der Biologie, die durch die Anwendung neu entwickelter physikalischer und chemischer Methoden und Instrumente auf Probleme der Biologie, einschließlich der Genetik, vorangetrieben wurde. Zu diesen Methoden gehörten Ultrazentrifugation, Röntgenkristallographie, Elektronenmikroskopie, Elektrophorese, makromolekulare Sequenzierung und radioaktive Verfolgung. Am biologischen Ende stützte es sich auf den Übergang zu neuen, vergleichsweise einfachen Modellorganismen wie einzelligen Pilzen, Bakterien, Viren und Phagen. Eine neue Kultur der physikalisch und chemisch unterrichteten In-vitro-Biologie ergab, dass große Teile in einem bestimmten experimentellen System größtenteils nicht mehr auf intakten Organismen beruhten (Rheinberger 1997; Landecker 2007). Zu diesen Methoden gehörten Ultrazentrifugation, Röntgenkristallographie, Elektronenmikroskopie, Elektrophorese, makromolekulare Sequenzierung und radioaktive Verfolgung. Am biologischen Ende stützte es sich auf den Übergang zu neuen, vergleichsweise einfachen Modellorganismen wie einzelligen Pilzen, Bakterien, Viren und Phagen. Eine neue Kultur der physikalisch und chemisch unterrichteten In-vitro-Biologie ergab, dass große Teile in einem bestimmten experimentellen System größtenteils nicht mehr auf intakten Organismen beruhten (Rheinberger 1997; Landecker 2007). Zu diesen Methoden gehörten Ultrazentrifugation, Röntgenkristallographie, Elektronenmikroskopie, Elektrophorese, makromolekulare Sequenzierung und radioaktive Verfolgung. Am biologischen Ende stützte es sich auf den Übergang zu neuen, vergleichsweise einfachen Modellorganismen wie einzelligen Pilzen, Bakterien, Viren und Phagen. Eine neue Kultur der physikalisch und chemisch unterrichteten In-vitro-Biologie ergab, dass große Teile in einem bestimmten experimentellen System größtenteils nicht mehr auf intakten Organismen beruhten (Rheinberger 1997; Landecker 2007). Eine neue Kultur der physikalisch und chemisch unterrichteten In-vitro-Biologie ergab, dass große Teile in einem bestimmten experimentellen System größtenteils nicht mehr auf intakten Organismen beruhten (Rheinberger 1997; Landecker 2007). Eine neue Kultur der physikalisch und chemisch unterrichteten In-vitro-Biologie ergab, dass große Teile in einem bestimmten experimentellen System größtenteils nicht mehr auf intakten Organismen beruhten (Rheinberger 1997; Landecker 2007).

Für die Entwicklung der Molekulargenetik im engeren Sinne erwiesen sich drei experimentelle Untersuchungslinien als entscheidend. Sie waren nicht miteinander verbunden, als sie Ende der 1940er Jahre an Dynamik gewannen, aber sie verschmolzen zu Beginn der 1960er Jahre und führten zu einem großartigen neuen Bild. Die erste dieser Entwicklungen war die Aufklärung der Struktur von Desoxyribonukleinsäure (DNA) als makromolekulare Doppelhelix durch Francis Crick und James D. Watson im Jahr 1953. Diese Arbeit basierte auf chemischen Informationen über die Basenzusammensetzung des von Erwin Chargaff bereitgestellten Moleküls über Daten aus der Röntgenkristallographie von Rosalind Franklin und Maurice Wilkins sowie über die mechanische Modellbildung nach Linus Pauling. Das Ergebnis war ein Bild eines Nukleinsäure-Doppelstrangs, dessen vier Basen (Adenin, Thymin, Guanin,Cytosin) bildete komplementäre Paare (AT, GC), die in allen möglichen Kombinationen zu langen linearen Sequenzen angeordnet werden konnten. Gleichzeitig schlug dieses molekulare Modell einen eleganten Mechanismus für die Vervielfältigung des Moleküls vor. Das Öffnen der Stränge und das Synthetisieren von zwei neuen Strängen, die zu jedem der getrennten Fäden komplementär sind, würde ausreichen, um zwei identische Helices aus einem zu erzeugen. Dies stellte sich tatsächlich als der Fall heraus, obwohl der Duplikationsprozess als auf einer komplizierten molekularen Replikationsmaschinerie beruhend angesehen werden würde. Somit hatte die Struktur der DNA-Doppelhelix alle Eigenschaften, die von einem Molekül zu erwarten waren, das als autokatalytische erbliche Einheit dient (Chadarevian 2002). Gleichzeitig schlug dieses molekulare Modell einen eleganten Mechanismus für die Vervielfältigung des Moleküls vor. Das Öffnen der Stränge und das Synthetisieren von zwei neuen Strängen, die zu jedem der getrennten Fäden komplementär sind, würde ausreichen, um zwei identische Helices aus einem zu erzeugen. Dies stellte sich tatsächlich als der Fall heraus, obwohl der Duplikationsprozess als auf einer komplizierten molekularen Replikationsmaschinerie beruhend angesehen werden würde. Somit hatte die Struktur der DNA-Doppelhelix alle Eigenschaften, die von einem Molekül zu erwarten waren, das als autokatalytische erbliche Einheit dient (Chadarevian 2002). Gleichzeitig schlug dieses molekulare Modell einen eleganten Mechanismus für die Vervielfältigung des Moleküls vor. Das Öffnen der Stränge und das Synthetisieren von zwei neuen Strängen, die zu jedem der getrennten Fäden komplementär sind, würde ausreichen, um zwei identische Helices aus einem zu erzeugen. Dies stellte sich tatsächlich als der Fall heraus, obwohl der Duplikationsprozess als auf einer komplizierten molekularen Replikationsmaschinerie beruhend angesehen werden würde. Somit hatte die Struktur der DNA-Doppelhelix alle Eigenschaften, die von einem Molekül zu erwarten waren, das als autokatalytische erbliche Einheit dient (Chadarevian 2002). Das Öffnen der Stränge und das Synthetisieren von zwei neuen Strängen, die zu jedem der getrennten Fäden komplementär sind, würde ausreichen, um zwei identische Helices aus einem zu erzeugen. Dies stellte sich tatsächlich als der Fall heraus, obwohl der Duplikationsprozess als auf einer komplizierten molekularen Replikationsmaschinerie beruhend angesehen werden würde. Somit hatte die Struktur der DNA-Doppelhelix alle Eigenschaften, die von einem Molekül zu erwarten waren, das als autokatalytische erbliche Einheit dient (Chadarevian 2002). Das Öffnen der Stränge und das Synthetisieren von zwei neuen Strängen, die zu jedem der getrennten Fäden komplementär sind, würde ausreichen, um zwei identische Helices aus einem zu erzeugen. Dies stellte sich tatsächlich als der Fall heraus, obwohl der Duplikationsprozess als auf einer komplizierten molekularen Replikationsmaschinerie beruhend angesehen werden würde. Somit hatte die Struktur der DNA-Doppelhelix alle Eigenschaften, die von einem Molekül zu erwarten waren, das als autokatalytische erbliche Einheit dient (Chadarevian 2002).

Die zweite Versuchslinie, die die Molekulargenetik bildete, war die In-vitro-Charakterisierung des Prozesses der Proteinbiosynthese, zu dem viele biochemisch arbeitende Forscher beigetragen haben, darunter Paul Zamecnik, Mahlon Hoagland, Paul Berg, Fritz Lipmann, Marshall Nirenberg und Heinrich Matthaei. Es begann in den 1940er Jahren hauptsächlich, um das Wachstum von bösartigen Tumoren zu verstehen. In den 1950er Jahren wurde deutlich, dass für den Prozess eine RNA-Matrize erforderlich war, von der ursprünglich angenommen wurde, dass sie Teil der Mikrosomen ist, auf denen der Aufbau von Aminosäuren stattfand. Darüber hinaus stellte sich heraus, dass der Prozess der Aminosäurekondensation durch ein Transfermolekül mit den Eigenschaften einer Nukleinsäure und der Fähigkeit, eine Aminosäure zu tragen, vermittelt wurde. Die sich daraus ergebende Idee, dass es sich um eine lineare Sequenz von Ribonukleinsäure handelt, die von einem der DNA-Stränge abgeleitet ist, die die Synthese einer linearen Sequenz von Aminosäuren oder eines Polypeptids steuert, und dass dieser Prozess durch ein Adaptermolekül vermittelt wird, wurde bald experimentell bestätigt (Rheinberger 1997). Es wurde schließlich festgestellt, dass die Beziehung zwischen diesen beiden Klassen von Molekülen durch einen Nukleinsäuretriplettcode bestimmt wird, der aus drei Basen gleichzeitig bestand und eine Aminosäure spezifizierte (Kay 2000, Kap. 6); daher die Sequenzhypothese und das zentrale Dogma der Molekularbiologie, die Francis Crick Ende der 1950er Jahre formulierte:Es wurde schließlich festgestellt, dass die Beziehung zwischen diesen beiden Klassen von Molekülen durch einen Nukleinsäuretriplettcode bestimmt wird, der aus drei Basen gleichzeitig bestand und eine Aminosäure spezifizierte (Kay 2000, Kap. 6); daher die Sequenzhypothese und das zentrale Dogma der Molekularbiologie, die Francis Crick Ende der 1950er Jahre formulierte:Es wurde schließlich festgestellt, dass die Beziehung zwischen diesen beiden Klassen von Molekülen durch einen Nukleinsäuretriplettcode bestimmt wird, der aus drei Basen gleichzeitig bestand und eine Aminosäure spezifizierte (Kay 2000, Kap. 6); daher die Sequenzhypothese und das zentrale Dogma der Molekularbiologie, die Francis Crick Ende der 1950er Jahre formulierte:

In seiner einfachsten Form [die Sequenzhypothese] wird angenommen, dass die Spezifität eines Nukleinsäurestücks ausschließlich durch die Sequenz seiner Basen ausgedrückt wird und dass diese Sequenz ein (einfacher) Code für die Aminosäuresequenz eines bestimmten Proteins ist. [Das zentrale Dogma] besagt, dass „Informationen“, sobald sie in Protein übergegangen sind, nicht mehr herauskommen können. Im Detail kann die Übertragung von Informationen von Nukleinsäure zu Nukleinsäure oder von Nukleinsäure zu Protein möglich sein, aber eine Übertragung von Protein zu Protein oder von Protein zu Nukleinsäure ist unmöglich. Information bedeutet hier die genaue Bestimmung der Sequenz, entweder von Basen in der Nukleinsäure oder von Aminosäureresten im Protein (Crick 1958, 152-153).

Mit diesen beiden Grundannahmen kam eine neue Sichtweise der biologischen Spezifität ins Spiel. Im Mittelpunkt stand die Übertragung der molekularen Ordnung von einem Makromolekül auf das andere. In einem Molekül bleibt die Ordnung strukturell erhalten; im anderen wird es ausgedrückt und bildet die Grundlage für eine biologische Funktion. Dieser Transferprozess wurde als molekularer Informationstransfer charakterisiert. Von nun an könnten Gene als Abschnitte von Desoxyribonukleinsäure (oder Ribonukleinsäure in bestimmten Viren) angesehen werden, die die Informationen für den Aufbau eines bestimmten Proteins tragen. Es wurde daher angenommen, dass beide Moleküle kolinear sind, und dies stellte sich tatsächlich bei vielen Bakteriengenen als der Fall heraus. Am Ende waren beide grundlegenden Eigenschaften, die Müller für Gene benötigt hatte, nämlich Autokatalyse und Heterokatalyse,wurden als auf ein und dasselbe stereochemische Prinzip beruhend wahrgenommen: Die Basenkomplementarität zwischen den Nukleinsäurebausteinen C / G und A / T (U im Fall von RNA) war beide für die getreue Verdoppelung der genetischen Information im Prozess von verantwortlich Replikation und über den genetischen Code zur Umwandlung genetischer Informationen in biologische Funktion durch Transkription in RNA und Translation in Proteine.

Der Code erwies sich als nahezu universell für alle Klassen von Lebewesen, ebenso wie die Mechanismen der Transkription und Übersetzung. Der Genotyp wurde somit als universelles Repository für genetische Informationen umkonfiguriert, manchmal auch als genetisches Programm. Die Rede von DNA als Verkörperung genetischer „Information“als „Blaupause des Lebens“, die den öffentlichen Diskurs bis heute regelt, entstand aus einer besonderen Verbindung von Physik und Biowissenschaften während des Zweiten Weltkriegs mit Erwin Schrödingers What is Life? als Inspirationsquelle (Schrödinger 1944) und Kybernetik als damals führende Disziplin bei der Erforschung komplexer Systeme. Es muss jedoch betont werden, dass erste Versuche, den DNA-Code mit rein kryptografischen Mitteln zu „knacken“, bald in eine Sackgasse gerieten. Schließlich waren es Biochemiker, die den genetischen Code mit den fortschrittlichen Werkzeugen ihrer Disziplin enträtselten (Judson 1996; Kay 2000).

Für die Weiterentwicklung des DNA-Begriffs als „Programm“müssen wir neben der Aufklärung der DNA-Struktur und der Mechanismen der Proteinsynthese eine weitere dritte Versuchslinie in Betracht ziehen. Diese Versuchsreihe entstand aus einer Fusion der Bakteriengenetik mit der biochemischen Charakterisierung eines induzierbaren Systems zuckermetabolisierender Enzyme. Es war größtenteils die Arbeit von François Jacob und Jacques Monod und führte Anfang der 1960er Jahre zur Identifizierung von Messenger-RNA als Vermittler zwischen Genen und Proteinen und zur Beschreibung eines so genannten regulatorischen Modells der Genaktivierung Operon-Modell, bei dem zwei Klassen von Genen unterschieden wurden: Eine Klasse war die der Strukturgene. Es wurde vermutet, dass sie die „Strukturinformationen“für die Herstellung bestimmter Polypeptide enthalten. Die andere Klasse waren regulatorische Gene. Es wurde angenommen, dass sie an der Regulierung des Ausdrucks von Strukturinformationen beteiligt sind (wie diese Unterscheidung kürzlich in Frage gestellt wurde, wird in Piro 2011 erörtert). Ein drittes DNA-Element, das an der Regelschleife eines Operons beteiligt ist, war eine Bindungsstelle oder Signalsequenz, die überhaupt nicht transkribiert wurde.

Diese drei Elemente, Strukturgene, regulatorische Gene und Signalsequenzen, bildeten den Rahmen, um den Genotyp selbst als geordnetes, hierarchisches System, als „genetisches Programm“zu betrachten, wie Jacob behauptete, nicht ohne sofort hinzuzufügen, dass es sich um ein sehr eigenartiges Programm handelte, nämlich eines, das seine eigenen Produkte zur Ausführung benötigte: „Es gibt nur die unaufhörliche Ausführung eines Programms, die untrennbar mit seiner Realisierung verbunden ist. Denn die einzigen Elemente, die die genetische Botschaft interpretieren können, sind die Produkte dieser Botschaft “(Jacob 1976, 297). Wenn wir diese Ansicht ernst nehmen, obwohl die gesamte Konzeption wie ein Kreis aussieht und als solche kritisiert wurde (Keller 2000), ist es letztendlich der Organismus, der die Strukturgene interpretiert oder "rekrutiert", indem er die regulatorischen Gene aktiviert oder hemmt kontrollieren ihren Ausdruck.

Das Operonmodell von Jacob und Monod markierte damit das steile Ende des einfachen Informationskonzepts des molekularen Gens. Seit Anfang der 1960er Jahre ist das Bild der Genexpression erheblich komplizierter geworden (vgl. Im Folgenden Rheinberger 2000b). Darüber hinaus scheinen die meisten Genome höherer Organismen riesige DNA-Abschnitte zu umfassen, denen noch keine Funktion zugeordnet werden kann. "Nicht-kodierende", aber funktionell spezifische regulatorische DNA-Elemente haben sich vermehrt: Es existieren Promotor- und Terminatorsequenzen; stromaufwärts und stromabwärts aktivierende Elemente in transkribierten oder nicht transkribierten, translatierten oder nicht translatierten Regionen; Leitsequenzen; extern und intern transkribierte Spacer vor, zwischen und nach Strukturgenen; eingestreute sich wiederholende Elemente und sich tandemartig wiederholende Sequenzen wie Satelliten,LINEs (lange eingestreute Sequenzen) und SINEs (kurze eingestreute Sequenzen) verschiedener Klassen und Größen. Angesichts all der verwirrenden Details dieser Elemente ist es nicht verwunderlich, dass ihre molekulare Funktion noch lange nicht vollständig verstanden ist (für einen Überblick siehe Fischer 1995).

In Bezug auf die Transkription, dh die Synthese einer RNA-Kopie aus einer DNA-Sequenz, wurden überlappende Leserahmen auf ein und demselben DNA-Strang gefunden, und es wurde gefunden, dass Protein-kodierende Abschnitte von beiden Strängen von stammen die Doppelhelix überlappend. Auf der Ebene der Modifikation nach der Transkription ist das Bild ebenso kompliziert geworden. Bereits in den 1960er Jahren wurde erkannt, dass DNA-Transkripte wie Transfer-RNA und ribosomale RNA auf komplexe enzymatische Weise getrimmt und gereift werden mussten, um funktionelle Moleküle zu werden, und dass Messenger-RNAs von Eukaryoten sowohl an ihren 5'-Enden einer umfassenden posttranskriptionellen Modifikation unterzogen wurden (Capping) und ihre 3'-Enden (Polyadenylierung), bevor sie bereit waren, in die Translationsmaschinerie einzusteigen. In den 1970er Jahren, zur Überraschung aller,Phillip Allen Sharp und Richard J. Roberts fanden unabhängig voneinander heraus, dass eukaryotische Gene aus Modulen bestehen und dass nach der Transkription Introns herausgeschnitten und Exons zusammengespleißt wurden, um eine funktionelle Botschaft zu erhalten.

Das "Gen-in-Pieces" (Gilbert 1978) war einer der ersten großen wissenschaftlichen Ableger der rekombinanten DNA-Technologie, und diese Technologie ist seitdem weiterhin gut für unerwartete Ausblicke auf das Genom und die Verarbeitung seiner Einheiten. Ein gespleißter Bote kann manchmal einen Bruchteil von nur zehn Prozent oder weniger des primären Transkripts umfassen. Seit den späten 1970er Jahren sind Molekularbiologen mit verschiedenen Arten des autokatalytischen Selbstspleißens von RNA-Spleißen, dem alternativen Spleißen eines einzelnen Transkripts, um unterschiedliche Nachrichten zu erhalten, und sogar dem Transspleißen verschiedener primärer Transkripte, um eine Hybridnachricht zu erhalten, vertraut geworden. Im Fall des Eiablagehormons von Aplysia, um nur ein Beispiel zu nennen, führt ein und derselbe DNA-Abschnitt zu elf Proteinprodukten, die am Fortpflanzungsverhalten dieser Schnecke beteiligt sind. Schließlich,Es wurde gefunden, dass ein weiterer Mechanismus bzw. eine Klasse von Mechanismen auf der Ebene von RNA-Transkripten funktioniert. Es wird Messenger-RNA-Editing genannt. In diesem Fall - der sich inzwischen nicht nur als exotische Kuriosität einiger Trypanosomen herausgestellt hat - wird das ursprüngliche Transkript nicht nur ausgeschnitten und eingefügt, sondern seine Nukleotidsequenz wird nach der Transkription systematisch verändert. Der Nucleotidersatz erfolgt vor Beginn der Translation und wird durch verschiedene Leit-RNAs und Enzyme vermittelt, die alte und neue Nucleotide auf verschiedene Weise herausschneiden, um ein Produkt zu erhalten, das nicht mehr zu dem DNA-Abschnitt komplementär ist, von dem es ursprünglich abgeleitet wurde, und ein Protein, das im klassischen molekularbiologischen Sinne nicht mehr mit der DNA-Sequenz kolinear ist. Es wurde festgestellt, dass eine Klasse von Mechanismen auf der Ebene von RNA-Transkripten funktioniert. Es wird Messenger-RNA-Editing genannt. In diesem Fall - der sich inzwischen nicht nur als exotische Kuriosität einiger Trypanosomen herausgestellt hat - wird das ursprüngliche Transkript nicht nur ausgeschnitten und eingefügt, sondern seine Nukleotidsequenz wird nach der Transkription systematisch verändert. Der Nucleotidersatz erfolgt vor Beginn der Translation und wird durch verschiedene Leit-RNAs und Enzyme vermittelt, die alte und neue Nucleotide auf verschiedene Weise herausschneiden, um ein Produkt zu erhalten, das nicht mehr zu dem DNA-Abschnitt komplementär ist, von dem es ursprünglich abgeleitet wurde, und ein Protein, das im klassischen molekularbiologischen Sinne nicht mehr mit der DNA-Sequenz kolinear ist. Es wurde festgestellt, dass eine Klasse von Mechanismen auf der Ebene von RNA-Transkripten funktioniert. Es wird Messenger-RNA-Editing genannt. In diesem Fall - der sich inzwischen nicht nur als exotische Kuriosität einiger Trypanosomen herausgestellt hat - wird das ursprüngliche Transkript nicht nur ausgeschnitten und eingefügt, sondern seine Nukleotidsequenz wird nach der Transkription systematisch verändert. Der Nucleotidersatz erfolgt vor Beginn der Translation und wird durch verschiedene Leit-RNAs und Enzyme vermittelt, die alte und neue Nucleotide auf verschiedene Weise herausschneiden, um ein Produkt zu erhalten, das nicht mehr zu dem DNA-Abschnitt komplementär ist, von dem es ursprünglich abgeleitet wurde, und ein Protein, das im klassischen molekularbiologischen Sinne nicht mehr mit der DNA-Sequenz kolinear ist. In diesem Fall - der sich inzwischen nicht nur als exotische Kuriosität einiger Trypanosomen herausgestellt hat - wird das ursprüngliche Transkript nicht nur ausgeschnitten und eingefügt, sondern seine Nukleotidsequenz wird nach der Transkription systematisch verändert. Der Nucleotidersatz erfolgt vor Beginn der Translation und wird durch verschiedene Leit-RNAs und Enzyme vermittelt, die alte und neue Nucleotide auf verschiedene Weise herausschneiden, um ein Produkt zu erhalten, das nicht mehr zu dem DNA-Abschnitt komplementär ist, von dem es ursprünglich abgeleitet wurde, und ein Protein, das im klassischen molekularbiologischen Sinne nicht mehr mit der DNA-Sequenz kolinear ist. In diesem Fall - der sich inzwischen nicht nur als exotische Kuriosität einiger Trypanosomen herausgestellt hat - wird das ursprüngliche Transkript nicht nur ausgeschnitten und eingefügt, sondern seine Nukleotidsequenz wird nach der Transkription systematisch verändert. Der Nucleotidersatz erfolgt vor Beginn der Translation und wird durch verschiedene Leit-RNAs und Enzyme vermittelt, die alte und neue Nucleotide auf verschiedene Weise herausschneiden, um ein Produkt zu erhalten, das nicht mehr zu dem DNA-Abschnitt komplementär ist, von dem es ursprünglich abgeleitet wurde, und ein Protein, das im klassischen molekularbiologischen Sinne nicht mehr mit der DNA-Sequenz kolinear ist. Der Nucleotidersatz erfolgt vor Beginn der Translation und wird durch verschiedene Leit-RNAs und Enzyme vermittelt, die alte und neue Nucleotide auf verschiedene Weise herausschneiden, um ein Produkt zu erhalten, das nicht mehr zu dem DNA-Abschnitt komplementär ist, von dem es ursprünglich abgeleitet wurde, und ein Protein, das im klassischen molekularbiologischen Sinne nicht mehr mit der DNA-Sequenz kolinear ist. Der Nucleotidersatz erfolgt vor Beginn der Translation und wird durch verschiedene Leit-RNAs und Enzyme vermittelt, die alte und neue Nucleotide auf verschiedene Weise herausschneiden, um ein Produkt zu erhalten, das nicht mehr zu dem DNA-Abschnitt komplementär ist, von dem es ursprünglich abgeleitet wurde, und ein Protein, das im klassischen molekularbiologischen Sinne nicht mehr mit der DNA-Sequenz kolinear ist.

Die Komplikationen mit dem molekularbiologischen Gen setzen sich auf der Ebene der Translation fort, dh der Synthese eines Polypeptids gemäß der Sequenz von Tripletts des mRNA-Moleküls. Es gibt Befunde wie Translationsstarts an verschiedenen Startcodons auf ein und derselben Messenger-RNA; Fälle von obligatorischer Rahmenverschiebung innerhalb einer gegebenen Nachricht, ohne die ein nicht funktionierendes Polypeptid resultieren würde; und posttranslationale Proteinmodifikation, wie das Entfernen von Aminosäuren vom Aminoterminus des translatierten Polypeptids. Es gibt eine andere Beobachtung namens Proteinspleißen, von der seit Anfang der neunziger Jahre berichtet wurde. Hier müssen Teile des ursprünglichen Translationsprodukts abgespalten (Inteine) und andere miteinander verbunden (Exteine) werden, bevor ein funktionelles Protein erhalten wird. Und schlussendlich,Eine neuere Entwicklung auf dem Gebiet der Translation besteht darin, dass ein Ribosom es schaffen kann, zwei verschiedene Messenger-RNAs in ein einziges Polypeptid zu übersetzen. François Gros ist nach einem Leben in der Molekularbiologie zu dem eher paradox klingenden Schluss gekommen, dass angesichts dieser verwirrenden Komplexität das „explodierte Gen“le gène éclaté, wenn überhaupt, nur durch „die Produkte, die daraus resultieren, spezifiziert werden kann seine Aktivität “, dh die funktionellen Moleküle, zu denen es führt (Gros 1991, 297). Es scheint jedoch schwierig zu sein, Gros 'Rat einer solchen umgekehrten Definition zu folgen, da der Phänotyp den Genotyp definieren würde.ist zu dem eher paradox klingenden Schluss gekommen, dass angesichts dieser verwirrenden Komplexität das „explodierte Gen“le gène éclaté, wenn überhaupt, nur durch „die Produkte, die aus seiner Aktivität resultieren“, dh die funktionellen Moleküle, spezifiziert werden kann zu dem es Anlass gibt (Gros 1991, 297). Es scheint jedoch schwierig zu sein, Gros 'Rat einer solchen umgekehrten Definition zu folgen, da der Phänotyp den Genotyp definieren würde.ist zu dem eher paradox klingenden Schluss gekommen, dass angesichts dieser verwirrenden Komplexität das „explodierte Gen“le gène éclaté, wenn überhaupt, nur durch „die Produkte, die aus seiner Aktivität resultieren“, dh die funktionellen Moleküle, spezifiziert werden kann zu dem es Anlass gibt (Gros 1991, 297). Es scheint jedoch schwierig zu sein, Gros 'Rat einer solchen umgekehrten Definition zu folgen, da der Phänotyp den Genotyp definieren würde.wie der Phänotyp kommen würde, um den Genotyp zu definieren.wie der Phänotyp kommen würde, um den Genotyp zu definieren.

Die jüngsten Debatten über Struktur und Funktion des Genoms konzentrieren sich auf das Projekt Encyclopedia of DNA Elements (ENCODE). Das Projekt zielte darauf ab, alle funktionellen Elemente im menschlichen Genom zu identifizieren. Die bisherigen Ergebnisse der Arbeit des Konsortiums lassen die bereits bekannten Abweichungen vom klassischen Modell des molekularen Gens als kontinuierliche Proteinkodierungsregion, die von regulatorischen Regionen flankiert wird, eher als Regel als als Ausnahme erscheinen. Zu einem großen Teil fanden ENCODE-Forscher eine Überlappung von Transkripten, Produkten, die aus weit voneinander getrennten DNA-Sequenzstücken stammen, und weit verbreiteten regulatorischen Sequenzen für ein bestimmtes Gen. Die Ergebnisse bestätigen auch, dass der größte Teil des Genoms transkribiert wird, und unterstreichen die Bedeutung und Durchdringung von funktionellen nicht-Protein-kodierenden RNA-Transkripten, die im letzten Jahrzehnt entstanden sind und auf eine „große verborgene Schicht von RNA-regulatorischen Transaktionen“hindeuten (Mattick 2007). In Anbetracht dieser Ergebnisse wurde eine Definition des Gens vorgeschlagen, wonach "das Gen eine Vereinigung genomischer Sequenzen ist, die einen kohärenten Satz potenziell überlappender funktioneller Produkte codieren". (Gerstein et al. 2007, 677). Solche Definitionen dienen hauptsächlich der Lösung des Annotationsproblems (Baetu 2012), das im Zusammenhang mit der zunehmenden Bedeutung der Bioinformatik und der Verwendung von Datenbanken, die eine konsistente Ontologie erfordern, besonders wichtig wird (Leonelli 2008). Umstrittener ist hier der Funktionsbegriff. Laut dem ENCODE-Konsortium ermöglichten ihre Daten es ihnen, „80% des Genoms biochemische Funktionen zuzuweisen“. (ENCODE Project Consortium 2012, 57), obwohl nach konservativen Schätzungen nur 3–8% der Basen einer reinigenden Selektion unterzogen werden, die normalerweise zur Anzeige der Sequenzfunktion herangezogen wird. Kritiker haben argumentiert, dass ein ätiologischer Funktionsbegriff, nach dem die Funktion ein ausgewählter Effekt ist, im Kontext der funktionellen Genomik angemessener ist (Doolittle et al. 2014), während andere behaupten, dass jede kausale Rolle eines DNA-Strangs eine Rolle spielen könnte relevant, insbesondere in der biomedizinischen Forschung (siehe Germain et al. 2014 für eine philosophische Sicht auf die Diskussion). Wie wir bei früheren Wendungen in der Geschichte des Genkonzepts festgestellt haben, wurden diese Entwicklungen durch technologische Fortschritte vorangetrieben.insbesondere bei der tiefen RNA-Sequenzierung und bei der Identifizierung von Protein-DNA-Wechselwirkungen.

Zusammenfassend kann mit Falk (2000, 327) gesagt werden, dass einerseits die autokatalytische Eigenschaft, die dem Gen einmal als Elementareinheit zugeschrieben wurde, auf die DNA insgesamt verwiesen wurde. Die Replikation kann nicht länger als spezifisch für das Gen als solches angesehen werden. Schließlich wird der Prozess der DNA-Replikation nicht durch die Grenzen der kodierenden Regionen unterbrochen. Andererseits ist es, wie viele Beobachter der Szene bemerkt haben (Kitcher 1982; Gros 1991; Morange 2001; Portin 1993; Fogle 2000), immer schwieriger geworden, eindeutige Eigenschaften eines Gens als funktionelle Einheit mit Heterokatalyse zu definieren Eigenschaften. Unter kontextuellen Bedingungen ist es zu einer Frage der Wahl geworden, welche Sequenzelemente in die funktionelle Charakterisierung eines Gens einbezogen und welche ausgeschlossen werden sollen. Einige haben daher eine pluralistische Haltung gegenüber Genkonzepten eingenommen. (Burian 2004).

Es gab unterschiedliche Reaktionen auf diese Situation. Wissenschaftler wie Thomas Fogle und Michel Morange geben zu, dass es keine genaue Definition mehr gibt, was als Gen gelten könnte. Sie machen sich jedoch keine großen Sorgen um diese Situation und sind bereit, weiterhin pluralistisch, kontextuell und pragmatisch über Gene zu sprechen (Fogle 1990, 2000; Morange 2000b). Elof Carlson und Petter Portin sind ebenfalls zu dem Schluss gekommen, dass das vorliegende Genkonzept abstrakt, allgemein und offen ist, trotz oder nur weil das gegenwärtige Wissen über die Struktur und Organisation des genetischen Materials so umfassend und detailliert geworden ist. Aber sie, wie Richard Burian (1985), nehmen offene Konzepte mit einem großen Referenzpotential nicht nur als Lebensdefizit, sondern auch als potenziell produktives Werkzeug in der Wissenschaft. Solche Konzepte bieten Optionen und lassen Entscheidungen offen (Carlson 1991, Portin 1993). Der Philosoph Philip Kitcher lobte bereits vor 25 Jahren als Folge aller molekularen Eingaben in Bezug auf das Gen das „heterogene Referenzpotential“des Gens als Tugend und zog die ultraliberale Schlussfolgerung, dass „es keine Molekularbiologie des Gens gibt. Es gibt nur Molekularbiologie des genetischen Materials “(Kitcher 1982, 357).

Aus der Perspektive der autokatalytischen und evolutionären Dimension des genetischen Materials hat sich herausgestellt, dass die den Genen zugeschriebene Fortpflanzungsfunktion eine Funktion des gesamten Genoms ist. Der Replikationsprozess, dh der Übertragungsaspekt der Genetik als solcher, hat sich als komplizierter molekularer Prozess herausgestellt, dessen Vielseitigkeit keineswegs auf das Mischen von Genen während der meiotischen Rekombination beschränkt ist, sondern ein Reservoir für die Evolution darstellt und von einem hochkomplexen Molekül gesteuert wird Maschinen einschließlich Polymerasen, Gyrasen, DNA-Bindungsproteinen, Reparaturmechanismen und mehr. Genomische Unterschiede, auf die durch Selektion abgezielt wird, können, dürfen aber während der Evolution nicht in Gene unterteilt werden, wie Peter Beurton es ausdrückte (Beurton 2000, 303).

Auf der anderen Seite gibt es diejenigen, die die heterokatalytische Variabilität des Gens als Argument nehmen, um das genetische Material als Ganzes zu behandeln, daher auch Gene, die nicht mehr als eigenständig grundlegend, sondern als Entwicklungsressource, die benötigt wird kontextualisiert werden. Sie behaupten, es sei an der Zeit, sich nicht aufzulösen, sondern zumindest die Genetik in die Entwicklung und sogar die Entwicklung in die Fortpflanzung einzubetten - wie James Griesemer vorschlägt (Griesemer 2000) - und damit den Faden aufzunehmen, wo Kühn und andere ihn mehr als verlassen haben vor einem halben Jahrhundert. Folglich definiert Moss "Gene-D" (das Gegenstück zu dem zuvor erwähnten phänotypisch definierten Gene-P) als eine "Entwicklungsressource (daher das D), die an sich in Bezug auf den Phänotyp unbestimmt ist. Ein Gen-D zu sein bedeutet, eine Transkriptionseinheit auf einem Chromosom zu sein.in denen molekulare Template-Ressourcen enthalten sind “(Moss 2003, 46; vgl. Moss 2008). Aus dieser Sicht stellen diese Templates nur ein Reservoir dar, auf das sich der Entwicklungsprozess stützt, und sind als erbliche Moleküle nicht ontologisch privilegiert.

Mit der Molekularbiologie wurde das klassische Gen „molekular“(Waters 1994). Ironischerweise löste sich in diesem Prozess die ursprüngliche Idee von Genen als einfache DNA-Abschnitte auf, die für ein Protein kodieren. Sobald das Gen der klassischen Genetik durch Molekularbiologie Materialstruktur erlangt hatte, vermehrten sich die biochemischen und physiologischen Mechanismen, die für seine Übertragung und Expression verantwortlich waren. Die Entwicklung der Molekularbiologie selbst - dieses Unternehmen, das so oft als völlig reduktionistische Eroberung bezeichnet wird - hat es unmöglich gemacht, sich das Genom einfach als eine Reihe zusammenhängender DNA-Stücke vorzustellen, die mit den daraus abgeleiteten Proteinen kolinear sind. Zu Beginn des 21. Jahrhunderts, als die Ergebnisse des Humangenomprojekts zum fünfzigsten Jahrestag der Doppelhelix rechtzeitig vorgestellt wurden,Die Molekulargenetik scheint einen vollen Kreis geschlossen zu haben und die Reproduktion und Vererbung nicht mehr rein genetisch, sondern aus evolutionär-entwicklungspolitischer Sicht neu auszurichten. Gleichzeitig hat sich das Gen im Laufe des 20. Jahrhunderts zu einer zentralen Kategorie in der Medizin entwickelt (Lindee 2005) und dominiert die Diskurse über Gesundheit und Krankheit in der postgenomischen Ära (Rose 2007).

4. Das Gen in Evolution und Entwicklung

Eines der spektakulärsten Ereignisse in der Geschichte der Biologie des 20. Jahrhunderts als Disziplin, ausgelöst durch den Aufstieg der Genetik (insbesondere der mathematischen Populationsgenetik), war die sogenannte „moderne Evolutionssynthese“. In einer ganzen Reihe von Lehrbüchern, die von Evolutionsbiologen wie Theodosius Dobzhansky, Ernst Mayr und Julian S. Huxley veröffentlicht wurden, wurden die Ergebnisse der Populationsgenetik verwendet, um die darwinistische, selektionistische Evolution wiederherzustellen. Nach der „Finsternis des Darwinismus“, die um 1900 regiert hatte (Bowler 1983), bot der Neo-Darwinismus erneut einen einheitlichen, erklärenden Rahmen für die Biologie, der auch die deskriptiveren, naturalistischeren Disziplinen wie Systematik, Biogeographie und Paläontologie umfasste (Provine 1971); Mayr & Provine 1980; Smocoovitis 1996).

Scott Gilbert (2000) hat sechs Aspekte des Begriffs des Gens herausgearbeitet, wie er in der Populationsgenetik bis zur modernen evolutionären Synthese verwendet wurde. Erstens war es eine Abstraktion, eine Einheit, die formale Anforderungen erfüllen musste, die aber nicht sein musste und tatsächlich nicht materiell spezifiziert wurde. Zweitens musste das Evolutionsgen zu einem phänotypischen Unterschied führen oder mit diesem korreliert werden, der durch Selektion „gesehen“oder gezielt werden konnte. Drittens und aus dem gleichen Grund war das Gen der evolutionären Synthese die Einheit, die letztendlich dafür verantwortlich war, dass die Selektion stattfand und über Generationen hinweg andauerte. Viertens wurde das Gen der Evolutionssynthese weitgehend mit dem gleichgesetzt, was Molekularbiologen als "Strukturgene" bezeichneten. Fünftens war es ein Gen, das in einem Organismus exprimiert wurde, der um den Fortpflanzungsvorteil konkurrierte. Und schlussendlich,es wurde als weitgehend unabhängige Einheit angesehen. Richard Dawkins hat dieses letzte Argument auf die Spitze getrieben, indem er das Gen als einen „selbstsüchtigen“Replikator mit einem eigenen Leben definiert, mit seinen Mitgenen konkurriert und den Organismus als Instrument für sein eigenes Überleben verwendet (Dawkins 1976; vgl. Sterelny) und Kitcher 1988).

Die Molekularbiologie, bei der in den letzten drei Jahrzehnten höhere Organismen im Mittelpunkt standen, hat eine Karikatur dieser Art von Evolutionsgen erstellt und Gene und ganze Genome als komplexe Systeme vor unsere Augen gerückt, die nicht nur die Evolution, sondern auch das Sein ermöglichen selbst einem heftigen Evolutionsprozess ausgesetzt. Das Genom in seiner Gesamtheit hat eine immer flexiblere und dynamischere Konfiguration angenommen. Evelyn Fox Keller spricht von „reaktiven Genomen“(Keller 2014). Die mobilen genetischen Elemente, die McClintock vor mehr als einem halben Jahrhundert in Zea mays charakterisiert hat, haben nicht nur in Form von Transposons an Bedeutung gewonnen, die regelmäßig und unregelmäßig ausgeschnitten und in alle bakteriellen und eukaryotischen Genome eingefügt werden können, sondern es gibt auch andere Formen von Mischen, das auf DNA-Ebene auftritt. Eine gigantische Menge an somatischem Gen-Basteln und DNA-Spleißen ist beispielsweise an der Organisation der Immunantwort beteiligt. Es entstehen potenziell Millionen verschiedener Antikörper. Kein Genom wäre groß genug, um eine solche Aufgabe zu bewältigen, wenn nicht die Aufteilung von Genen und eine ausgefeilte Permutation ihrer Teile während der Evolution erfunden worden wären. Genfamilien sind durch Duplizierung im Laufe der Zeit entstanden und enthalten stummgeschaltete Gene (manchmal auch Pseudogene genannt). Gene selbst scheinen größtenteils durch Kombination aus Modulen entstanden zu sein. Wir finden springende Gene und mehrere Gene einer Sorte, die für verschiedene Proteinisoformen kodieren. Kurz gesagt, es scheint eine ganze Reihe von Mechanismen und Entitäten zu geben, die das bilden, was als "erbliche Atmung" bezeichnet wurde (Gros 1991, 337).ist an der Organisation der Immunantwort beteiligt. Es entstehen potenziell Millionen verschiedener Antikörper. Kein Genom wäre groß genug, um eine solche Aufgabe zu bewältigen, wenn nicht die Aufteilung von Genen und eine ausgefeilte Permutation ihrer Teile während der Evolution erfunden worden wären. Genfamilien sind durch Duplizierung im Laufe der Zeit entstanden und enthalten stummgeschaltete Gene (manchmal auch Pseudogene genannt). Gene selbst scheinen größtenteils durch Kombination aus Modulen entstanden zu sein. Wir finden springende Gene und mehrere Gene einer Sorte, die für verschiedene Proteinisoformen kodieren. Kurz gesagt, es scheint eine ganze Reihe von Mechanismen und Entitäten zu geben, die das bilden, was als "erbliche Atmung" bezeichnet wurde (Gros 1991, 337).ist an der Organisation der Immunantwort beteiligt. Es entstehen potenziell Millionen verschiedener Antikörper. Kein Genom wäre groß genug, um eine solche Aufgabe zu bewältigen, wenn nicht die Aufteilung von Genen und eine ausgefeilte Permutation ihrer Teile während der Evolution erfunden worden wären. Genfamilien sind durch Duplizierung im Laufe der Zeit entstanden und enthalten stummgeschaltete Gene (manchmal auch Pseudogene genannt). Gene selbst scheinen größtenteils durch Kombination aus Modulen entstanden zu sein. Wir finden springende Gene und mehrere Gene einer Sorte, die für verschiedene Proteinisoformen kodieren. Kurz gesagt, es scheint eine ganze Reihe von Mechanismen und Entitäten zu geben, die das bilden, was als "erbliche Atmung" bezeichnet wurde (Gros 1991, 337). Kein Genom wäre groß genug, um eine solche Aufgabe zu bewältigen, wenn nicht die Aufteilung von Genen und eine ausgefeilte Permutation ihrer Teile während der Evolution erfunden worden wären. Genfamilien sind durch Duplizierung im Laufe der Zeit entstanden und enthalten stummgeschaltete Gene (manchmal auch Pseudogene genannt). Gene selbst scheinen größtenteils durch Kombination aus Modulen entstanden zu sein. Wir finden springende Gene und mehrere Gene einer Sorte, die für verschiedene Proteinisoformen kodieren. Kurz gesagt, es scheint eine ganze Reihe von Mechanismen und Entitäten zu geben, die das bilden, was als "erbliche Atmung" bezeichnet wurde (Gros 1991, 337). Kein Genom wäre groß genug, um eine solche Aufgabe zu bewältigen, wenn nicht die Aufteilung von Genen und eine ausgefeilte Permutation ihrer Teile während der Evolution erfunden worden wären. Genfamilien sind durch Duplizierung im Laufe der Zeit entstanden und enthalten stummgeschaltete Gene (manchmal auch Pseudogene genannt). Gene selbst scheinen größtenteils durch Kombination aus Modulen entstanden zu sein. Wir finden springende Gene und mehrere Gene einer Sorte, die für verschiedene Proteinisoformen kodieren. Kurz gesagt, es scheint eine ganze Reihe von Mechanismen und Entitäten zu geben, die das bilden, was als "erbliche Atmung" bezeichnet wurde (Gros 1991, 337).mit stillgelegten Genen (manchmal Pseudogene genannt). Gene selbst scheinen größtenteils durch Kombination aus Modulen entstanden zu sein. Wir finden springende Gene und mehrere Gene einer Sorte, die für verschiedene Proteinisoformen kodieren. Kurz gesagt, es scheint eine ganze Reihe von Mechanismen und Entitäten zu geben, die das bilden, was als "erbliche Atmung" bezeichnet wurde (Gros 1991, 337).mit stillgelegten Genen (manchmal Pseudogene genannt). Gene selbst scheinen größtenteils durch Kombination aus Modulen entstanden zu sein. Wir finden springende Gene und mehrere Gene einer Sorte, die für verschiedene Proteinisoformen kodieren. Kurz gesagt, es scheint eine ganze Reihe von Mechanismen und Entitäten zu geben, die das bilden, was als "erbliche Atmung" bezeichnet wurde (Gros 1991, 337).

Molekulare Evolutionsbiologen haben die Oberfläche kaum zerkratzt und kaum begonnen, diesen flexiblen genetischen Apparat zu verstehen, obwohl Jacob das Genom bereits vor mehr als dreißig Jahren als einen dynamischen Körper von ancestral iterierten und bastelten Stücken ansah (Jacob 1977). Die Genomsequenzierung in Kombination mit einem intelligenten Sequenzdatenvergleich bringt derzeit immer mehr von dieser Struktur hervor (zur Geschichte dieser Entwicklungen siehe García-Sancho 2012 unter>

Sep Mann Symbol
Sep Mann Symbol

Zitieren dieses Eintrags.

Sep Mann Symbol
Sep Mann Symbol

Vorschau der PDF-Version dieses Eintrags bei den Freunden der SEP Society.

Inpho-Symbol
Inpho-Symbol

Schlagen Sie dieses Eintragsthema im Internet Philosophy Ontology Project (InPhO) nach.

Phil Papers Ikone
Phil Papers Ikone

Erweiterte Bibliographie für diesen Eintrag bei PhilPapers mit Links zu seiner Datenbank.

Andere Internetquellen

  • MendelWeb, gepflegt von Roger B. Blumberg
  • Electronic Scholarly Publishing, gepflegt von Robert J. Robbins
  • Vertretung des Genes-Projekts, unterhalten von Paul Griffiths (U. Sydney) und Karola Stotz (U. Sydney)
  • Virtuelles Labor, Max-Planck-Institut für Wissenschaftsgeschichte, Berlin

Beliebt nach Thema