Kitabı oku: «Neue Theorien des Rechts», sayfa 12

Yazı tipi:

II. Computergestützte Rechtslinguistik als Beitrag zur Rechtstatsachenforschung

Unter einer »computergestützten Rechtslinguistik« verstehen wir Arbeiten, die maschinelle, quantifizierende Verfahren der Sprachgebrauchsanalyse ergänzend zur qualitativen Hermeneutik von Texten dazu nutzen, Hypothesen zur sprachlichen und sozialsymbolischen Konstitution und Reproduktion von Rechtsarbeit zu entwickeln und/oder zu prüfen. Grundsätzlich geht es der (computergestützten) Rechtslinguistik um die Frage, wie der Rechtsstaat als in SpracheSprache verfasste Institution überhaupt erst möglich wird bzw. was ihn strukturseitig überwiegend prägt: Wie gestaltet sich die juristische Fachsprache, welche Wörter, Phrasen, Textsorten sind für sie typisch? Wie wird Normtexten (Gesetzen oder Verordnungen) eine Bedeutung zugeschrieben und wie werden juristische Texte miteinander verknüpft? Was sind typische Argumentationsmuster in juristischen Auseinandersetzungen, was zeichnet semantische Kämpfe aus oder wie gestaltet sich Fachkommunikation zwischen Juristen oder auch zwischen Juristen und juristischen Laien in verschiedenen Bereichen? Im Folgenden stellen wir exemplarisch kurz einige Arbeiten zu diesem Forschungsbereich vor, wie er in der Research Group Computer Assisted Legal Linguistics (kurz: CAL2-Gruppe) unter Leitung von Hanjo Hamann und Friedemann Vogel seit 2014 bearbeitet und entwickelt wird:

|113|Ausgehend von einem evidenzbasierten Ansatz von Jurisprudenz[452] untersucht Hanjo Hamann die Zitationspraktiken in rund 35.000 juristischen Aufsätzen aus 14 einschlägigen Fachzeitschriften[453]. Zu diesem Zweck extrahierte er über 1,6 Millionen Fußnoten und analysierte diese quantifizierend nach Zitationsformaten, Häufigkeitsverteilungen von zitierten und nicht-zitierten Texten, meistzitierten Zeitschriften und von zu »Klassikern« avancierten Texten der Rechtswissenschaft. Er stellte fest, dass über 90 % der Rechtssprechungsliteratur und über 70 % der Aufsatzfundstellen (2000–2010) in keiner der erfassten Zeitschriften bis 2012 zitiert werden. Zu den meistzitierten Fundstellen überhaupt zählen erwartungsgemäß Texte der Rechtsprechung (zuoberst das Volkszählungsurteil des BVerfG); erst an 75ter Stelle der meistzitierten Fundstellen erscheint überhaupt ein wissenschaftlicher Text.

In einer anderen Untersuchung geht Hamann dem richterlichen Gebrauch des Wortes »Sprachgebrauch« nach[454]. Im Falle von sprachlichen Zweifelsfällen berufen sich Richter regelmäßig auf den allgemeinen Sprachgebrauch eines Wortes, ohne dabei aber methodisch transparent zu machen, was sie jeweils damit meinen. Aus rechtslinguistischer Perspektive handelt es sich dabei um einen problematischen Topos, da nicht nur für Rechtsunterworfene, sondern auch für die juristische Binnenkommunikation völlig schleierhaft bleibt, wie die Richter zu ihrer Auslegung gelangen. Mithin ist die mit diesem Topos einhergehende Berufung auf die eigene (richterliche) Sprachkompetenz erfahrungsgemäß äußerst fragwürdig, genau das hat die korpuslinguistische, auf empirischen Daten basierende Forschung immer wieder gezeigt (vgl. dazu auch Sektion 3.). Vor diesem Hintergrund sammelt Hamann alle in der Datenbank Juris enthaltenen Belege aus den amtlichen Entscheidungssammlungen der Bundesgerichte in den Jahren 2003–2012, in denen Richter mit ihren Entscheidungen auf den Sprachgebrauch verweisen und analysiert die Verwendung dieses Wortes anhand der es begleitenden Kotextwörter (insb. Attribute: allgemeiner, gesetzesspezifischer, juristischer usw. Sprachgebrauch). In jedem zweiten Fall werden für die Bestimmung dessen, was denn allgemeiner Sprachgebrauch sei, keine Nachweise angegeben, sondern wird implizit die eigene Sprachkompetenz zugrunde gelegt. Führen die Richter Belege für ihre Deutungshypothesen an, dann mithilfe von Wörterbüchern, die aber – das wurde schon an anderen Stellen deutlich – als »Sprachgesetzbücher« missverstanden werden.

In mehreren Arbeiten hat sich Friedemann Vogel mit der Frage beschäftigt, wie sich die juristische Dogmatik zu ausgewählten Rechtsbegriffen auf der sprachlichen Oberfläche von großen Textkorpora wiederspiegelt und welche Vorteile oder auch Nachteile ein computergestützter Analysezugang zeitigt. In einer der |114|ersten derartigen Studien in Deutschland überhaupt untersuchte er 2012 exemplarisch die sprachliche Konkretisierung und diskursive Funktion der Menschenwürde (Art. 1 I GG) in der Rechtsprechung des Bundesverfassungsgerichts[455]. Zu diesem Zweck wurden rund 4200 Entscheidungen des Bundesverfassungsgerichts aus einem Zeitraum von 1998 bis 2010 korpustechnisch aufbereitet und im Hinblick auf wiederkehrende Ko(n)textmuster quantifizierend ausgewertet. Dabei wurden zunächst Sprachgebrauchsmuster verschiedenen Abstraktionsgrades (Kookkurrenzen, Mehrworteinheiten usw.) zum Ausdruck Würde bzw. Menschenwürde berechnet und diese Muster anschließend qualitativ und induktiv nach Zuschreibungsmustern und Fallgruppen eingeordnet. Im Ergebnis zeigt sich, wie die Richter durch das wiederholte Aufgreifen früherer Formulierungen (Selbstzitation) nach und nach ihre Deutungs- und Entscheidungskompetenz in der sprachlichen Oberfläche sedimentieren und diese in das kollektive Gedächtnis juristischer Facharbeiter eingeht. Mit anderen Worten: Die Häufigkeit eines Sprachmusters kann auch als Grad der Konventionalisierung und als Indikator für die normative Stellung des damit assoziierten (Norm-)Konzeptes verstanden werden. Die Menschenwürde wird dabei zu keinem einzigen Zeitpunkt positiv definiert, sondern nur durch ihre Behandlung in Fallgruppen von Verletzungen ex negativo bestimmt. Die Fallgruppen entsprechen bestimmten konventionalisierten, das heißt erwartbaren Sprachgebrauchsmustern[456].

In Folge sind weitere Arbeiten zur Erprobung von korpuslinguistischen Verfahren zur Analyse juristischer Diskurse entstanden. Eine der umfassendsten Studien im deutschsprachigen Raum stellt etwa eine Untersuchung von Friedemann Vogel, Ralph Christensen und Stephan Pötters zum arbeitsrechtlichen (nicht legaldefinierten) Begriff des Arbeitnehmers dar[457]. Gegenstand war ein Korpus aus 9085 Entscheidungstexten (22,22 Mio. Wörter) arbeitsrechtlicher Ober- und Unterinstanzen aus einem Zeitraum von 1954 bis 2012. Auch in dieser Studie zeigte sich, wie sich über die Zeit hinweg verschiedene Paraphrasen und damit Definitionsversuche zum Schlüsselausdruck Arbeitnehmer entwickeln, teilweise miteinander konkurrieren und welche konzeptuellen Leerstellen dabei dominant gesetzt werden. Auch der zunehmende Einfluss europäischen Rechts lässt sich anhand der Verteilung sprachlicher Gebrauchsmuster in den Daten rekonstruieren (etwa mit Blick auf die Lawrie-Blum-Formel des EuGH).

Auch wenn diese Arbeiten einen vielversprechenden Anfang gemacht haben, sie basierten alle auf verhältnismäßig kleinen, gegenstandsspezifischen Textsammlungen: Korpora mit Texten zum Ausdruck Menschenwürde, Arbeitnehmer, |115|Online-Durchsuchung[458] usw. Auch wenn Juris oder Beck Online große Mengen an Rechtstexten anbieten, sie sind keine Korpora im linguistischen Sinne, ihr Zugang ist lizenzrechtlich restriktiv und erlaubt keinen Zugriff auf die Grundgesamtheit geschweige denn Aufbereitung der Textdaten. Ein kontrolliertes Referenzkorpus zur deutschen Rechtssprache – analog zu den bestehenden Großtextkorpora der Gemeinsprache (wie des DeReko) – war also lange Zeit Desiderat. Abhilfe schafft das von 2014 bis 2017 von Hanjo Hamann und Friedemann Vogel entwickelte und von der Heidelberger Akademie der Wissenschaften geförderte »Juristische Referenzkorpus« (JuReko; im Englischen: »CAL2 Corpus of German Law«)[459]. JuReko umfasst in einer ersten Version alle 6.300 deutschen Normtexte (Gesetzestexte) im Geltungsjahr 2015 (etwa 2,4 Mio. Wörter), 370.000 Entscheidungstexte ausgewählter Unter- und Oberinstanzgerichte (800 Mio. Wörter) aus einem Zeitraum von 1951 bis 2015 sowie 43.000 wissenschaftliche Artikel (150 Mio. Wörter). Sämtliche Texte wurden mit zahlreichen Metainformationen versehen (darunter Entstehungs- oder Erscheinungsjahr, Textsorte, Zeitschrift, Gericht und Autor) und mit Wortarten-Taggern annotiert. Seit 2017 steht das Korpus für wissenschaftliche Zwecke (und aus lizenzrechtlichen Gründen nur unter Sicherheitsauflagen) zur Verfügung.

In einem Folgeprojekt zum Aufbau einer »digitalen Forschungs- und Experimentierplattform« (CAL2Lab) werden bis 2019 die 200.000 meistgebrauchten Wörter (Substantive, Verben, Adjektive) und dazugehörigen Mehrworteinheiten der juristischen Fachsprache extrahiert und zu diesen Wörtern umfassende Wortgebrauchsprofile erstellt. Im Ergebnis – das online basiert frei zugänglich sein wird – lässt sich dann für jedes der erfassten Wörter empirisch nachzeichnen, in welchem Zeitraum, in welcher Zeitschrift, von welchem Autor/Gericht, mit welchen anderen Kotextwörtern usw. es wie oft verwendet wird. Auszugsweise Konkordanzen erlauben für jede/n Benutzer/in, die Verwendung eines Ausdrucks in JuReko zu untersuchen und anhand quantifizierender Parameter transparent zu machen. Diese Wortgebrauchsprofile lassen sich natürlich auch untereinander vergleichen und nach Grad ihrer Ähnlichkeit und dem Grad ihrer Bedeutungsfixierung (sprich: Bestimmtheit) sortieren. Auf diese Weise lassen sich zukünftig auch ganze Begriffsfelder und dogmatisch-semantische Schulen in Abhängigkeit von Autoren/innen, Zeit, Textsorte usw. rekonstruieren.

III. KorpuslinguistikKorpuslinguistik als Werkzeug für die juristische Interpretation sprachlicher Zweifelsfälle

Korpora und computergestützte Verfahren der Sprachgebrauchsanalyse können nicht nur zu einem empirischen linguistischen, historischen oder soziologischen Verständnis des praktischen (d.h. sich in sprachlichen Praktiken |116|konstituierenden) Rechtsstaats, sondern auch zur Optimierung juristischer Textarbeit beitragen, nämlich an beiden Enden der Normgenese: in der Gesetzgebung sowie in der Normtextauslegung in Gerichtsbarkeit und Verwaltung.

Gesetzgebung wird bis heute in der juristischen Theorie oft zu einer bloßen »Subsumption ex ante« verkürzt, die eigentlichen, sehr komplexen arbeitsteiligen Prozesse der Textverarbeitung weitestgehend empirisch ignoriert. Ohne auf diese Arbeitsverfahren hier im Einzelnen eingehen zu können, so liegt es auf der Hand, dass Legisten/innen regelmäßig mit dem Problem konfrontiert sind, Normtextentwürfe und darin enthaltene Ausdrücke auf ihre möglichen Lesarten in der Zukunft hin zu prüfen. Kurz gesagt geht es um die Frage, ob eine Regelungsabsicht (Vorschrift) angemessen für die jeweiligen Adressaten formuliert ist oder sich Missverständnisse und damit kostspielige (im Zweifel gerichtliche) Klärungen abzeichnen. Korpuslinguistische Verfahren und kontrollierte Rechtstextkorpora (wie JuReko) können ein Hilfsmittel für die Legistik zur Antizipation von Lesarten sein: Sie können empirisch Auskunft darüber geben, wie bestimmte Ausdrücke in bisherigen Normtexten oder in der rechtswissenschaftlichen Literatur verwendet und verstanden werden. Es kann ermittelt werden, ob bestimmte Normtextentwürfe sprachlich mit diesen bisherigen Lesarten kollidieren und Hinweise zu möglichen (gebrauchsverwandten) Alternativformulierungen erschlossen werden. Erfahrungen zu dieser sprachbezogenen Gesetzesfolgenabschätzung und Rechtspflege gibt es etwa in der Schweiz, in Deutschland arbeitet die Forschungsgruppe um Friedemann Vogel und Hanjo Hamann (CAL2-Gruppe) an Techniken und Softwareumgebungen, die für die Legistik hilfreich sein könnten.

Auf der anderen Seite der Normgenese kann eine empirische Sprachgebrauchsanalyse die juristische MethodikMethodik und Auslegungsarbeit vor Gericht unterstützen, insofern sie gemein- und fachsprachliche Zweifelsfälle zu klären hilft. Ein Beispiel aus den USA: Die SpracheSprache- und Recht-Forschung ist in den USA traditionell stark anwendungsorientiert und ist daher sicherlich nicht zufällig Vorreiter bei der Erprobung korpuslinguistischer Begriffsanalysen in Gerichtsverfahren. Wesentlichen Anteil daran hat(te) Stephen C. Mouritsen, Lehrbeauftragter mit linguistischem und juristischem Abschluss an der Brigham Young University (Utah), der seit 2010 in mehreren Fachartikeln[460] die Möglichkeiten und Grenzen juristischer »Lehnstuhl«-Sprachinterpretation diskutiert und mit empirischen Korpusanalysen kontrastiert. Mouritsen kritisiert die übliche Praxis an US-Gerichten, die sich nach herrschender Lehre vor allem auf das eigene Sprachgefühl oder auf Wörterbücher berufen, um die »plain« oder »ordinary meaning« eines Normtextausdrucks zu bestimmen. In seinen Texten erklärte er die Probleme dieser Geltungsquelle bei der Begriffsbestimmung und kontrastierte sie anhand aktueller Beispiele mit korpuslinguistischen Befunden. Eine dieser Analysen |117|erschien etwa in einem Beitrag mit dem Titel The dictionary is not a fortress (2010). Gegenstand des Artikels ist der in der Rechtsprechung bekannte Fall um die Auseinandersetzung Muscarello versus United States[461]. Der Angeklagte war aus seinem Auto heraus verhaftet worden und in seinem Autohandschuhfach wurde neben Drogen auch eine Schusswaffe gefunden. Das Strafgesetz, nach dem Muscarello angeklagt wurde, sah bei Drogendealerei eine deutliche Verschärfung des Strafmaßes vor, wenn der Angeklagte eine Schusswaffe bei sich trage. Die Richter standen nun vor der Frage, ob der Normtextausdruck carries a firearm (das Tragen einer Schusswaffe) nicht nur das »am Körper-Tragen« einer Waffe umfasste, sondern auch – wie hier im Fall – die »Beförderung« einer Schusswaffe »in einem Fahrzeug« miteinschloss. Für ihre Antwort griffen sie auf zahlreiche Wörterbücher aus unterschiedlichen Zeitepochen, Zeitungsexzerpten sowie auf fiktionale Literatur zurück – und bejahten die Frage schließlich. Mouritsen kritisiert die Argumentation der Richter und analysiert das Verb to carry mit korpuslinguistischen Mitteln (Konkordanzen, Kookkurrenzen) und auf Basis zweier ausgewogener Textkorpora, nämlich dem Corpus of Contemporary American English (COCA) und dem Corpus of Historical American English (COHA). Anhand der systematischen Analyse von Gebrauchsbelegen sowie der Quantifizierung zeigt Mouritsen die kontextabhängige Ambiguität des infrage stehenden Ausdrucks auf. Er stellt fest, dass die dominante gemeinsprachliche Lesart von carrying a firearm das »Tragen einer Schusswaffe am Körper« sei. Nach Abschluss seiner Ausbildung absolvierte Mouritsen schließlich sein Praxis-Referendariat bei Thomas R. Lee, Richter am Utah Supreme Court, und konnte diesen in mehreren Aufsehen erregenden Fällen davon überzeugen, KorpuslinguistikKorpuslinguistik als transparente Methode der richterlichen Begriffsbestimmung einzusetzen.

Das Beispiel illustriert, dass und in welcher Form KorpuslinguistikKorpuslinguistik eine lohnenswerte Ergänzung für die juristische Interpretation sein kann:

»The corpus method is not a panacea. The use of corpus data will not do away with disagreements as to the meaning of statutory terms. Instead, the corpus method removes the determination of ordinary meaning from the black box of the judge’s mental impression and renders the discussion of ordinary meaning one of tangible and quantifiable reality«[462].

Bei allem Optimismus gilt es zugleich jedoch davor zu warnen, computergestützte Sprachgebrauchsanalysen als Topos zu missbrauchen, der jedes qualitative Argument schon deshalb entwertet, weil es sich nicht in abstrakten Frequenzangaben abbilden lässt. Tatsächlich muss sich eine quantifizierende Beurteilung immer am konkret zu beurteilenden Einzelfall reiben. Der hermeneutische Zugang – das Verstehen und das argumentative Verhandeln eines Verständnisses im Interpretieren – muss immer Primat bleiben, so attraktiv es manchen auch klingen mag, mit wenigen Mausklicks die rechtliche Welt zu vermessen. Effizienzgründe |118|können und dürfen keine Rechtfertigung für computergesteuerte Verfahren im Recht sein; sonst erledigt sich mit der Effizienzoptimierung auch der Rechtsstaat selbst.

C. Das Eigene des Rechts und das fremde Wissen

Die alte »Juristische MethodikMethodik« hat das Eigene der Jurisprudenz zu eng bestimmt und damit das Wesentliche am Prozess der Rechtserzeugung aus der Reflexion ausgeklammert[463]Methodik. Halten wir zunächst fest: Die Steuerung der Einbeziehung fremden Wissens muss von der SpracheSprache des Rechts her erfolgen. Was ist also die Bedeutung eines Rechtsbegriffs? Die empirische Methode der Kookkurrenzanalyse geht davon aus, dass die Bedeutung eines Wortes durch die Wendungen bestimmt wird, die in seiner Umgebung regelmäßig erscheinen. Dies kann man heute, bezogen auf Textkorpora, mit dem Computer auswerten. Aber natürlich gibt es auch hier Grenzen. Denn es wird schnell ein Komplexitätsniveau erreicht, das zwar dem holistischen Charakter der Sprache besser gerecht wird, aber praktisch nicht mehr abgearbeitet werden kann. Wenn man in einer Liste von Kollokationen die neu hinzukommenden Wörter mit ihren Kollokationen auswerten würde, würde sich dadurch die Zahl der Wörter des jeweiligen Wortfeldes exponentiell erhöhen. Die Unterstützung durch zunehmend intelligenter werdende Suchmechanismen und Wörterbuch-gestützte Informationsretrieval wird der Linguistik und dem Recht nützen: »Hier berühren sich Überlegungen, Ideen, Techniken aus sehr unterschiedlichen Wissensbereichen, deren Zusammentreffen aber dazu führt, dass jeder dieser Bereiche eine erhebliche Leistungssteigerung erfährt und mehr Werte on the fly erzeugt werden können. Techniken hierzu sind im Rahmen von Statistikverfahren entwickelt worden«[464].

Wenn man über eine Kookkurrenzanalyse den Sprachgebrauch möglichst umfassend erhebt, findet man eine Vielzahl divergierender Verwendungen. Daraus ergeben sich Muster, aber eben noch keine Entscheidung über die Vorzugswürdigkeit dieser Muster. »[Der Computer ist] strikt an in der Vergangenheit programmierte Befehlssequenzen gebunden«, die sich weder automatisch noch autodidaktisch an überraschenden Kontextänderungen anpassen können[465]. Zur Grundlage der Entscheidung könnte man verschiedene Gesichtspunkte anwenden. Etwa den engsten oder den weitesten Sprachgebrauch oder den zahlmäßig häufigsten. Ein gemeinsamer Kern aller Verwendungen findet sich nicht immer und ein bloßes Abzählen der Häufigkeit stellt noch keine Entscheidung über die |119|Vorzugswürdigkeit für eine bestimmte Fallkonstellation dar. Die Erfassung des Sprachgebrauchs durch eine Kookkurrenzanalyse wirkt also zunächst einmal zentrifugal. Für die Entscheidung einer Rechtsfrage brauchen wir aber eine zentripetale Kraft der Auswahl. Diese Auswahl macht aus der Addition von Sprachgebräuchen eine Gestalt. Dies ist die Aufgabe dogmatischer Theorie. Aber auch diese im Bereich des öffentlichen Diskurses entstehende Notwendigkeit einer Gestaltbildung kann eine Fallentscheidung nicht immer vorgeben. Dazu bedarf es häufig der Argumentation im Verfahren, welche Sprachgebräuche selegiert und synthetisiert[466] über Rahmenanalyse[467].

Die Hoffnung, für eine Lesart des Gesetzes nicht argumentieren zu müssen, sondern diese einfach im System zu erkennen, ist nicht leicht zu enttäuschen, es handelt sich um eine Wunschkonstellation[468]. Der Wunsch nach Instruktivität[469] wird hier in das System projiziert. Auch die maschinelle Auswertung von Quellenkorpora kann die Entscheidung nicht ersetzen. Im Zentrum dieser Arbeit wird immer die Argumentation im Verfahren stehen. Der Informationszuwachs, den die neuen Medien liefern, wäre ohne diese Argumentation eine bloße Addition. Das Wissen bedarf einer qualitativen Vernetzung, die in sich geordnet und strukturiert ist. Technische Informationszugänge liefern keine Semantik oder ein interpretiertes Wissen, nur tote Mengen und Zeichen. Es gibt also tatsächlich ein Risiko der neuen Möglichkeiten der großen Datenmengen, nämlich dass mit Hilfe von Textmassen ausladend wenig gesagt wird und dabei die entscheidende Leistung der Verarbeitung von Informationen vergessen wird. Aber dieses Risiko bestand schon bei allen Medienrevolutionen und bisher ist es immer nach einiger Zeit gelungen, die Chancen des neuen Mediums zu nutzen. Man könnte auf der Grundlage von Korpora und genauerer Analysen die Vielfalt und Vernetztheit der jeweiligen SpracheSprache besser sichtbar machen. Aber genau darin liegt das Risiko für den Irrglauben in der Jurisprudenz, im Wörterbuch stecke die Wortlautgrenze und man könne sie dort einfach nachlesen. Wir können jetzt computerbasiert vielmehr an Informationen auffinden und sind nicht mehr so stark der hermeneutischen Kompetenz des/der jeweiligen Wissenschaftlers/in ausgeliefert. Wir können die Belegstellen gegebenenfalls selbst aufsuchen. Dieses Vorgehen liefert uns nicht den Sinn des Gesetzes, aber es liefert uns eine Fülle von Möglichkeiten, vorgeschlagene Lesarten zu verstärken oder zu relativieren. Ohne diese Grundlage arbeiten wir nicht nach den Regeln der Kunst. Aber die Notwendigkeit, über den Konflikt der Lesarten juristisch zu entscheiden, kann uns das beste Wörterbuch nicht abnehmen.

Wörterbuch und Computer helfen uns also, eine große Zahl von Bedeutungsvarianten zu entdecken und auch dabei, diese auf Kontexte zu beziehen. Aber |120|eine Sprachgrenze liefern sie nicht. Denn die einzige Grenze in der SpracheSprache ist die Verständlichkeit. Die empirische Analyse entlastet uns also nicht von dem Streit, welche der gefundenen Verwendungsweisen für unsere Zwecke die beste ist.

Was bleibt damit vom Eigenen des Rechts? Natürlich die direkte sprachliche Steuerung durch das Gesetz in den unstreitigen Fällen. Vor allem aber die »Gewährleistung« des Argumentationsprozesses in den streitigen Fällen. In allen wichtigen Fragen ist also die Steuerung durch das Gesetz indirekt. Das Gericht muss hier den Relevanzhorizont der Argumentation im Auge behalten und zur Not von Amts wegen entweder erweitern oder einschränken. In der Hauptsache muss es aber bei dem Streit um die Bedeutung der Begriffe Waffengleichheit und Fairness garantieren. Das erfordern die rechtsstaatlichen Maßstäbe. Schließlich ist in der Begründung darzulegen, welche Argumente den Stand der Geltung erreicht haben, indem sie alle Einwände integriert oder widerlegt haben. Also auch hier ist der Staat kein Eingriffsstaat, der den Bürgern die SpracheSprache entzieht, auch kein Leistungsstaat, der für sie spricht und die Bedeutung nach Bedürftigkeit verteilt. Sondern er ist ein Gewährleistungsstaat, der sicherstellt, dass der Streit um Bedeutung auf dem richtigen Niveau geführt und entschieden wird.

Das Sprachverstehen kann damit nicht das Eigene der Jurisprudenz sein. Sprachverstehen können auch andere. Rechtswissenschaft ist eine sehr alte Disziplin. Vielleicht ist sie schon alt genug, um zuzugeben, dass ihr nichts wirklich Eigenes zukommt[470]. Ein solches Proprium müsste sie von allen anderen unterscheiden und man würde mit dieser Definition nicht fertig werden. Das heißt natürlich nicht, dass man die Jurisprudenz nicht vorläufig von anderen Disziplinen abgrenzen könnte. Man muss die Identität der Disziplin als Suchbild begreifen[471]. Wenn man dies wollte, bliebe tatsächlich etwas Wichtiges übrig. Der Umstand nämlich, dass das Öffentliche Recht die Effizienz der Durchsetzung anderer gesellschaftlicher Logiken stört. Die Herrschaft des Staates zu kontrollieren, bleibt natürlich nach wie vor eine wichtige Aufgabe[472]. Aber heute ist jedenfalls im Gebiet der Bundesrepublik Deutschland der Staat ansatzweise domestiziert und die eigentliche Bedrohung von Freiheit geht von gesellschaftlicher Macht aus[473]. Es gibt mittlerweile einen selbstreferenziellen Kapitalismus, der sich den Fragen nach Legitimation, Verantwortung, Recht und Steuer systematisch entzieht[474]. Die |121|Privatautonomie dient dabei als verschleierndes Mäntelchen[475]. »Dem Optimierungsfetisch der Ökonomie, dem Steuerungswahnsinn der Politik sowie den legitimen Egoismen der Privatrechtssubjekte kann und muss das Öffentliche Recht selbstbewusst entgegentreten. Kurz: Öffentliches Recht stört immer und muss um seiner Idee willen auch immer stören«[476]. Mit der Aufgabe, die Entgrenzung von gesellschaftlichen Logiken zu verhindern, bleibt für das Öffentliche Recht mehr als genug zu tun. Ob man dies dann Identität oder Proprium nennt, ist nicht mehr entscheidend. Es gibt in der Rechtswissenschaft keinen Lehnstuhl zu verbrennen. Juristen und Juristinnen betreiben schon immer Sprachgestaltung, aber als geschlossene Veranstaltung. Dies ist zu ändern.

Ücretsiz ön izlemeyi tamamladınız.

₺1.044,92

Türler ve etiketler

Yaş sınırı:
0+
Hacim:
751 s. 2 illüstrasyon
ISBN:
9783846353257
Yayıncı:
Telif hakkı:
Bookwire
İndirme biçimi: