Otto E. Rössler – Anthologie eines Welträtsellösers
Otto E. Rössler reibt sich nun bereits seit Jahren an den Institutionen der akademischen Wissenschaft. Neben bizarren Aktionen setzt der wissenschaftliche Aussenseiter und Mentor des LHC-Widerstands über Dekaden hinweg auch auf eine Welterklärung, die mit skurrilen „Theorien“ die Wissenschaft umkrempeln soll. RelativKritisch hatte dem Tübinger Mediziner angeboten, seine grenzwertigen Texte kommentiert zu veröffentlichen, wenn er keine anderen Möglichkeiten mehr hat. Otto E. Rössler hat dieses Angebot jetzt zum ersten Mal genutzt.
RelativKritisch stellt mit dieser speziellen „Anthologie eines Welträtsellösers“, Otto E. Rössler einen Platz für eine Veröffentlichung seiner Texte und der freien Diskussion dazu unzensurierten Raum zur freien Verfügung. Dabei sind lediglich die allgemeinen rechtlichen Pflichten des Betreibers des Portal RelativKritisch und die von ihm übergreifend erstellten Nutzungsbedingungen zu beachten. Die Redaktion von RelativKritisch behält sich im Rahmen dieser Voraussetzungen Moderationsmassnahmen vor.
Otto E. Rössler hat einen ersten Beitrag und dessen eigene englische Übersetzung auf RelativKritisch veröffentlicht. Seinen Text „Fröhliche Wissenschaft mit lachend in Kauf genommener nicht unwahrscheinlicher Todesfolge für alle“ und die ersten Kommentare dazu veröffentlichen wir nachstehend.
- Diskutiere über Otto E. Rössler und seine „Anthologie eines Welträtsellösers“ auch im Forum Alpha Centauri!
RelativKritisch E-Edition
Als ePub herunterladen 1998Die Artikel von RelativKritisch gibt es auch als E-Book im ePub-Format zum kostenlosen Download!
Ähnliche Beiträge
Kommentare sind geschlossen.
Aber Herr ‚Uebbing‘, jetzt wird schon wieder hin und her gesprungen.
Bleiben Sie doch bitte mal bei einem Thema. Alles andere schadet der Diskussion. 😀
Ja, basics, welche Sie unter Missachtung der tatsächlichen Gegebenheiten im Experiment bis heute nicht ansatzweise nachvollzogen haben.
Spielt übrigens immer noch keine Rolle fürs Vakuum.
Uebbing, ist Ihnen eigentlich wirklich klar, dass Sie hier von „Risiken“ sprechen, die etwa dem „Risiko“ entsprechen, dass ein Apfel eines Tages von selbst an den Baum zurückhüpft?
Vielleicht merken Sie es ja jetzt.
Es ist hier jetzt eine erhebliche Menge physikalischer „Prosa“ verfasst worden.
Derartige „Prosa“, also natursprachliche Formulierung, birgt immer die Gefahr der Mehrdeutigkeit; ausserdem tendieren solche Diskussionen dazu, sich, v.a. mangels Falsifizierbarkeit, im Kreis zu drehen.
Deshalb möchte ich anregen, dass die diskutierten Modelle formal weiterentwickelt werden.
Grüsse,
S.
Zu #1102 | Hans | 27. Juli 2011, 13:12
„… ist Ihnen eigentlich wirklich klar, dass Sie hier von “Risiken” sprechen, die etwa dem “Risiko” entsprechen, dass ein Apfel eines Tages von selbst an den Baum zurückhüpft?“
Wenn diese Frage impliziert, dass wir ab jetzt in einem Konsens
über einen möglichen Risikowert sprechen, der mathematisch nicht exakt gleich Null ist,
d.h. mit genau diesem Wert Null n i c h t
nachgewiesen werden kann,
hätten wir einen riesigen gedanklichen
Fortschritt erreicht (wir beide).
Die Frage ist eher, was Sie damit anfangen wollen. In der Konsequenz müssten Sie nicht nur den LHC sondern auch das Universum verbieten. 😀
Wenn wir diesen Konsens haben
– also: Collider-Nullrisiko wissenschaftlich nicht beweisbar -,
der leider von entscheidender Stelle nicht zugestanden wird,
(sh. hierzu J. Engelen, CERN, The New Yorker v. 14.5.2007),
können wir mit der nächsten Überlegung beginnen.
Frage:
Wenn ein Nullrisiko nicht nachweisbar ist,
können Risikoobergrenzen bestimmt werden ?
Meine Antwort: Ja.
Bislang wurden mehrere Risikoobergrenzen
bestimmt, die leider noch nachgearbeitet werden müssen.
Zeigen Sie doch, bitte, die Textstellen im LSAG-Report
2008 auf, die Risikoobergrenzen näher quantifizieren.
(Einen generellen Forschungsstop will definitiv niemand,
soweit ich sehe –
eine realistische Beurteilung Risikoanalyse
wird jedoch zu einer
nützlichen Weiterentwicklung des LHC-Experimentes
führen können.)
Aktualisierung der Thesen 1-5
Sehr geehrter Herr Uebbing,
ich will nun nochmals meine bisherigen Thesen 1-5 aktualisieren, d.h. das Wort „Restrisiko″ durch den Begriff ″Irrtumsmaß″ ersetzen; dieser Begriff ist etwas allgemeiner und vor allem auch handlicher als der zuvor angekündigte Begriff einer ″Irrtums-Wahrscheinlichkeit″ bzw. gar ″Irrtums-Eintrittswahrscheinlichkeit″.
Vorsicht: Ein Maß ist ein allgemeinerer Begriff als eine Wahrscheinlichkeit; insbesondere ist es zwar grösser gleich 0, liegt aber nicht zwischen 0 und 1. Es ist aber kein Problem, in diesem Kontext den Massbegriff auf eine Wahrscheinlichkeit zu erweitern und diese entsprechend auf einen Wert zwischen 0 und 1 umzurechnen, indem man es etwas salopp gesprochen durch das Maß(100%) dividiert. – Man sehe mir bitte nach, dass ich den in der Schweiz nicht vorhandenen Buchstaben ″ß″ nur im Zusammenhang mit Maßen verwende.
Der besseren Übersichtlichkeit halber: Meine Thesen 1 und 2 habe ich im Kommentar #1036 von 26. Juli 2011, 18:22 Uhr formuliert, These 3 im Kommentar #1044 von 26. Juli 2011, 20:17 Uhr, These 4 im Kommentar #1053 von 26. Juli 2011, 21:47 Uhr und These 5 im Kommentar #1064 von 27. Juli 2011, 10:08 Uhr.
These 1: elementare mathematische Irrtumsmaße wie add(2,3) ungleich 5 oder succ(2) ungleich 3 haben einen Wert echt grösser als 0. Es ist aber irreführend, auszusagen, dass keine 100%-ige Sicherheit bezüglich des Ergebnisses vorliegen würde.
These 2: Völlig analog zur These 1 kann man neben einem mathematischen Irrtumsmaß weitere Irrtumsmaße definieren: physikalisches Irrtumsmaß, ingenieurmässiges Irrtumsmaß und verhaltensweisen-bezogenes Irrtumsmaß. Diese jeweils in „entsprechener Basis-Komplexität″. Sei ersteres ″Irrtumsmaß Stufe 1″ genannt, zweiteres ″Irrtumsmaß Stufe 2″, entsprechend auch Stufe 3 und Stufe 4. Zu einem späteren Zeitpunkt wird es sich möglicherweise als zweckmässig erweisen, hier weitere Stufen einzuführen.
Diese Stufen sind zunächst einmal nur vage definiert; dennoch lässt sich hier folgende Grössenrelation bilden:
Irrtumsmaß Stufe 1 (mathematisch) < Irrtumsmaß Stufe 2 (physikalisch) < Irrtumsmaß Stufe 3 (ingenieurmässig) < Irrtumsmaß Stufe 4 (verhaltensweisen-bezogen) ?
These 3: Jede Irrtumsmaß Stufe aus These 2 benötigt eigene geeignete Methoden, um Gefahren zu bestimmen.
These 4: Eine Methode zur Eruierung einer Gefahr muss auf alle Szenarien, die sich in derselben Irrtumsmaß-Stufe befinden, anwendbar sein.
These 5: Eine Risikobeurteilung umfasst folgendes:
5.1 ein Set von Annahmen
5.2 ein Ereignis, dessen Risiko bewertet werden soll
5.3 eine Analyse / Herleitung des Risikowertes
5.4 eine Ergebnis, also das Restrisiko
5.5 eine Inklusion, also “grösser gleich“ oder “kleiner gleich“
Freundliche Grüsse, Ralf Kannenberg
Sehr geehrter Herr Uebbing,
kommen wir nun auch schon zur These 6 / Frage 6:
Gehen Sie mit mir einig, dass gilt:
Es seien zu einem Ereignis mit demselben Set von Annahmen zwei unterschiedliche Risikoanalysen durchgeführt worden. Die erste hat zum Ergebnis, dass das verbleibende Restrisko R(Ereignis, Set von Annahmen) < r1 sei, und die zweite hat zum Ergebnis, dass das verbleibende Restrisiko R(Ereignis, Set von Annahmen) < r2 sei.
Sei r2 < r1, dann gilt: R(Ereignis, Set von Annahmen) < r2.
Der Beweis folgt aus der Transitivität der Ordnungsrelation.
Freundliche Grüsse, Ralf Kannenberg
Wir haben keinen Konsens. Höchstens insofern, dass Sie endlich eingesehen haben, dass das Leben in diesem Universum mit einer Wahrscheinlichkeit ungleich Null gefährlich ist.
Wenn Sie diese Art „Risiko“ jetzt beim LHC als relevant ansehen wollen, müssen Sie konsequenterweise dem Universum ebenso verbieten zu existieren bevor nicht eine Risikoanalyse erstellt wurde.
Sehr geehrter Herr Uebbing,
der nächste konsequente Schritt ist nun die These 7 / Frage 7:
Gehen Sie mit mir einig, dass man eine direkte Nachrechnung ebenfalls als eine Risikoanalyse interpretieren kann ? – Im Gegensatz zu einer normalen Risikoanalyse, in der man Unwägbarkeiten mit einem zu schätzenden Restrisiko belegen muss, kann man bei einer direkten Nachrechnung die Unwägbarkeiten explizit ausrechnen. Somit liefert eine direkte Nachrechnung in jedem Fall ein besseres Resultat als eine Risikoanalyse.
Freundliche Grüsse, Ralf Kannenberg
#1107 | ralfkannenberg | 27. Juli 2011, 17:03
Sehr geehrter Herr Kannenberg,
die Diskussion kann ich erst ab 12.8.
hier intensiv weiter führen.
Ich bemühe mich hier in Stichworten knapp zu antworten.
Meine Anmerkungen hier:
These 1 ist m.E. in Ordnung; es würde im Falle
der Fragestellung zur Mondexistenz (eine
Einstein-Frage – ein physikalischer
Bereich ist betroffen) ebenso zu antworten sein.
Hier kann das Wort „irreführend“ ggf.
noch graduell unterschiedlich aufgefasst werden.
These 2 lasse ich dahin gestellt.
Die Bewertung unterschiedlicher Ursachen
und die Irrtumsausmaße halte ich für
stark vom Einzelfall abhängig.
These 3 mag zutreffen, was ich
nicht ausschließen kann – die Methodiken
der Risikoanalysen hängen stark vom
jeweils zu beurteilenden Einzelfall ab –
soweit meine Sicht. Unabhängig von
einer Ihrer 4 Irrtumsstufen mag es in
den 4 Stufen dennoch ähnliche Risikostrukturen
geben, die eine methodisch gleiche
Risikobehandlung gestatten.
These 4 kann ich aus meiner Kenntnis
nicht bewerten oder zustimmen – ich möchte
lieber eine Einzelfallabhängigkeit betonen.
In jeder Ihrer 4 Stufen mag es Spezialitäten
und Sonderfälle geben.
These 5:
Zu 5.1: An das Set von Annahmen stelle
ich bestimmte Mindestanforderungen (Vollständigkeit
von Daten, z.B. Verlässlichkeitsangaben, wie o. beschrieben).
Zu. 5.4: Das Wort Restrisiko impliziert ein
verbleibendes unvermeidliches Risiko nach
Ergreifung und Bewertung von risikomindernden Maßnahmen.
Hier würde ich gerne die Vorsilbe „Rest“ streichen.
Ein Risiko umschließt auch ein Restrisiko.
Zu 5.5: Zu einem Größer/Kleiner-Vergleich von Werten:
Auch die Genauigkeit von zu vergleichenden Werten
(zum Beispiel benannt mit = :w1 oder =:w2)
spielt eine beachtenspflichtige Rolle.
Zur Verdeutlichung:
Wenn ein mittlerer Fehler / Standardabweichung
mit „f“ bezeichnet werde,
dann wird zum Beispiel w1 mit w1 +/- f anzugeben
sein und zu vergleichen sein evtl. mit w2 +/- 10 * f;
insbesondere wenn hier w2 in etwa so groß ist wie w1,
wird man weiter nachschauen wollen / müssen,
wie verlässlich denn die Größer/Kleiner-Beziehung,
das Resultat, ist.
Zu These 6:
Die Transitivität zugunsten des kleineren
Wertes r2 kann nur dann als nachgewiesen gelten, wenn in
der Untersuchung Nr. 2 die zutreffenden Unterschiede
zu Nr. 1 aufgezeigt werden, die den kleineren Wert r2
ausmachen. Eine automatische Transitivität verbietet
sich m.E., da von nicht übersehbaren Details, z.B. der
Methodik, Abhängigkeiten erzeugt werden können.
Hier eine einfach mathematische Transitivität als
gültig anzusehen, wo komplexe Zusammenhänge zu
beurteilen sind, halte ich für falsch.
Wichtig:
Ganz entscheidend ist hier noch ein fehlender Punkt
der bei einer professionellen, probalistischen Risikobehandlung nicht fehlen wird
– das ist die vorhergehende Festsetzung eines Risikowertes,
welcher gerade noch gesellschaftlich tolerabel ist und der in
der Praxis vom verbleibenden Risiko nicht
übertroffen werden darf. (Dieser kann nicht zu
Null gesetzt werden, dann müsste nämlich ggf. ein Projekt,
z.B. ein Atomkraftwerk, gestoppt werden.)
Mit freundlichen Grüssen
Rudolf Uebbing
An Hans:
Lesen Sie bitte doch bei Prof. E. Johnson nach (Fundstellenangabe sh. bitte o.), was genau im vorliegenden Fall
sehr kleine Risikowerte bedeuten – er diskutiert dazu
drei Gleichungen, wo der genannte, sehr kleine Wert als
Faktor berücksichtigt ist.
Mich wundert sehr,
dass Sie ein Collider-Risiko mit dem mathematisch
exakten Wert von Null als wissenschaftlich nachgewiesen
ansehen wollen.
Sehr geehrter Herr Uebbing,
diesem Einwand stimme ich nicht zu: Wenn Ihr Einwand richtig wäre, so würde das bedeuten, dass eine Risikoanalyse, die einen kleineren Risikowert als eine bereits bestehende hat, quasi per definitionem fehlerhaft ist, und zwar unabhängig von der Gründlichkeit und Sorgfalt der Arbeit.
Eine Risikoanalyse aber ist eine Arbeit, die einen Risikowert berechnet – unabhängig von vorgängig erstellten oder noch später zu erstellenden Arbeiten.
Gewiss: Eine bestehende Risikoanalyse kann (muss aber nicht) als Reviewgrundlage für eine neue Arbeit Verwendung finden, dies ist aber keine Voraussetzung. Insbesondere dann nicht, wenn die neue Arbeit auf völlig anderen Herleitungen beruht.
Freundliche Grüsse, Ralf Kannenberg
Uebbing, Sie kapieren einfach nicht, was Sie selbst fabrizieren. Das „Risiko“ von dem Sie die ganze Zeit rumfabulieren ist im Kern das Risiko, dass die Naturgesetze morgen in Richtung lebensfeindlicher Parameter verändert werden. Im Rahmen dessen ist das Risiko einer katastrophalen Colliderphysik sehr wohl „Null“.
Wenn Sie solche „Risiken“ beim LHC zur Grundlage einer Abschaltung machen wollen, dann verbieten Sie aber bitte auch dem Rest der Welt die Existenz.
Sehr geehrter Herr Uebbing,
aber das spielt doch keine Rolle. Natürlich mag es Sonderfälle geben, aber die kann kann man dann ja umrechnen bzw. das Besondere entsprechend berücksichtigen.
Freundliche Grüsse, Ralf Kannenberg
Im Übrigen stelle ich erneut fest, dass Sie LSAG nur sehr oberflächlich, wenn überhaupt gelesen haben können.,
Sehr geehrter Herr Uebbing,
idealerweise nimmt man nicht die l2 (Varianz), sondern die l“oo“ (Maximum-Metrik) und berücksichtigt diesen Wert beim Ergebnis. Wie bereits geschrieben gehört zum Ergebnis auch immer eine Inklusion.
Wenn man die l2 verwendet, muss man hier zusätzlich ein weiteres Risiko einbauen. Natürlich, es wird gewiss Situationen geben, bei denen man diesen Approach wählen wird; für eine Sicherheitsbetrachtung mit genügend grossem Schadenspotential indes halte ich ihn für unzureichend, ebenso wie Ihren Sicherheitsfaktor 10, da dieser viel zu klein sein könnte.
Freundliche Grüsse, Ralf Kannenberg
Sehr geehrter Herr Uebbing,
das ist ein willkürlicher Zusatzschritt, auf den ich mich bei sicherheitskritischen Anwendungen nicht verlassen möchte, da weder Sie noch ich darauf Einfluss nehmen können.
Freundliche Grüsse, Ralf Kannenberg
An Herrn Kannenberg:
Zu These 7:
Zitat:
„Gehen Sie mit mir einig, dass man eine direkte Nachrechnung ebenfalls als eine Risikoanalyse interpretieren kann ? “
Eine Nachrechnung ist i.d.R. die Wiederholung einer Rechnung
und erhöht die Sicherheit dazu, dass das erste Rechenresultat
korrekt kalkuliert wurde. (Eine Nachrechnung wird daher auf
einem a n d e r e n rechnerischem Weg vorgenommen
werden, z.B. umgekehrter Weg bei der Addition.)
Insoweit, dass eine kalkulatorisch bedingte Unsicherheit minimiert wird, stimme ich zu.
(Was ist mit den Unsicherheiten, die aus der Modellbildung
und den Ungewißheiten einer Theorie herrühren – dies
ist zwar nicht einfach zu modellieren und rechnerisch schwierig abzubilden, bedarf aber auch einer Diskussion bzw. einer Bewertung,
wenigstens in einem aussergewöhnlich wichtigen Fall. )
An Hans:
Da Sie mir keine Fundstellen zu quantifizierten
Risikoobergrenzen im LSAG-Report 2008
benennen, darf ich davon ausgehen, dass Sie derartige
Textstellen gleichfalls nicht vorgefunden haben ?
Sehr geehrter Herr Uebbing,
vielen Dank, dass Sie das ansprechen, denn hier liegt ein Missverständnis vor: Unter einer „direkten Nachrechnung“ verstehe ich einen analytischen Ansatz, im Gegensatz zu einem probabilistischen Ansatz.
Ich bitte meine Ungenauigkeit zu entschuldigen.
Freundliche Grüsse, Ralf Kannenberg
Sehr geehrter Herr Uebbing,
dank der These 7 benötigen Sie das nicht mehr.
Freundliche Grüsse, Ralf Kannenberg
#1117 | ralfkannenberg | 27. Juli 2011, 18:55
Sehr geehrter Herr Kannenberg,
möglicherweise habe ich oben „+/-10 * f “
nicht verständlich genug vermittelt –
mit „+/- f“ war eine Standardabweichung (mittlerer Fehler) gemeint, mit “ +/- 10* f“ ist auch eine Standardabweichung gemeint, jedoch
10mal so groß wie f. Dies ist also kein Sicherheitsfaktor,
sondern fließt erst durch ein Rechenverfahren in ein
Konfidenzintervall ein. Nun, man kann auch nach der
L1-Norm anstatt nach der L2-Norm (Gauß) beurteilen – das werden aber Risikoforscher sicherlich hier am besten beurteilen. –
Ich mache damit deutlich, dass eine obligatorische Verwendung
von Verlässlichkeitsangaben uns auf den Boden
der Tatsachen zurückholt – das heißt eine ja/nein-Entscheidung
zu einer Risikoexistenz hat letzten Endes immer nur
ein begrenzte Aussagekraft (im Rahmen eines Konfidenzintervalles).
Nochmal zur Transitivität (These 7):
Stellen wir uns Ihre
zwei Analysen mit den Ergebnissen r2 und r1 vor,
r2 sei dabei nur geringfügig günstiger als r1,
aber auf Basis der Methodik mit einem sehr
breiten Konfidenzintervall versehen, r1 vom
Wert her sehr dicht an r2, aber scharf in einem
engen Konfidenzintervall nachgewiesen – dann wird bei
genügend kleiner Differenz (r1-r2) die Entscheidung
über ein Projekt besser auf Basis der Analyse Nr. 1
gefällt werden wollen. Das heißt: Für eine Projektentscheidung
ist eine Transitivität nicht allein ausreichend, selbst
wenn sie zuträfe.
Mit freundlichen Grüssen
Rudolf Uebbing
Wenn Sie die Dokumente irgendwann einmal mit Sinn und Verstand gelesen hätten, würden Sie sich ob der Frage in Grund und Boden schämen. 😀
Sehr geehrter Herr Uebbing,
mag sein, dass im Ingenieurwesen der Begriff „Sicherheitsfaktor“ nur für das erste Moment reserviert ist und nicht für beispielsweise das zweite bzw. dessen Quadratwurzel. Inhaltlich meinen wir hier aber dasselbe.
Hier hingegen habe ich mich geirrt, selbstverständlich ist wie Sie schreiben idealerweise die L1-Norm zu verwenden. Danke schön für die Korrektur.
Sie verwenden es richtig, dennoch bitte für den stillen Mitleser: Es ist These 6 gemeint.
Wie schon gesagt: Beim Ergebnis ist selbstverständlich das Konfidenzintervall zur ungünstigeren, also zur sicheren Seite hin abzuziehen bzw. hinzuzufügen. Gut möglich, dass dann die andere Risikoanalyse den sichereren Wert liefert.
Freundliche Grüsse, Ralf Kannenberg
#1125 | ralfkannenberg | 27. Juli 2011, 19:43
Klar, die These 6 beschäftigt sich mit Transitivität –
These 7 beschäftigt sich mit Nachrechnen als
eine Möglichkeit des Sicherheitsnachweises.
Zur These 7:
Wenn ich durch Nachrechnung eines Resultates
das Rechenergebnis als bestätigt vorfinde und habe
in der Nachrechnung es unterlassen, die Verlässlichkeitsangaben
mit zu berücksichtigen, mache ich einen methodischen Fehler.
Die z u s ä t z l i c h e Berücksichtigung von Verlässlichkeitsangaben wird im Rahmen einer Nachrechnung
deutlich machen, dass das zu prüfende Resultat
tatsächlich in einem K o n f i d e n z i n t e r v a l l liegt, jedoch
nicht p u n k t s c h a r f sich darstellen lässt.
Das heißt:
Eine prinzipielle Unschärfe wird durch die Existenz
eines Konfidenzintervalles nachweisbar,
welche keinen e x a k t e n Risikowert – einschließlich exakt
Null – nachweisen lässt.
Nach wie vor bin ich auf Schätzwerte für Risikooberschranken (nach oben, mithin zum größt möglichen Wert hin) angewiesen, wenn ich den unsichersten Fall (GAU, worst-case-Annahme)
definitiv ausschließen will.
Die Ursachen hierfür sind
a) in der gegebenen unvollständigen Situationskenntnis (grundsätzliches Teilwissen) zu suchen
und
b) sie ergeben sich zwangsweise aus den Ausgangsdaten, die auf Basis von Messungen entstanden sind, die a l l e von dem Merkmal der zufälligen Fehler
gekennzeichnet sind (hinzu treten mögliche unerkannte systematische und selten grobe Messfehler).
Sehr geehrter Herr Kannenberg,
die Vereinbarung eines Grenzrisikos als der
gerade gesellschaftlich noch tolerable Wert
ist ein reguliertes Vorgehen in
drei nennbaren europäischen Ländern, wie
bei Dr. N. Pfeil in „Sicherer als sicher“,
(Tagungsband des BfR, Fundstelle sh. bitte o.)
nachgelesen werden kann.
Mit Hilfe einer Grenzrsikofestlegung verbinden
sich mehrere Vorteile, wie ich sie hier beschreiben
möchte:
a) Vermeidung einer irrealen Nullrisikoforderung,
die lebensfern ist und praktisch nicht realisiert
werden kann.
b) Entwicklung, Beschreibung, Bewertung, Realisierung
und Prüfung von risikomindernden Maßnahmen solange,
bis der Schätzwert einer Gefahrenwahrscheinlichkeit
das festgesetzte Grenzrisiko unterschreitet.
c) Eine Vertrauensbildung wird durch einen an
den Tag gelegten Realismus unterstützt.
Idealisierender Pragmatismus ist ungut;
Realismus kann im Sinne von objektiven
Risikobeurteilungen helfen –
dass heisst, wie ich meine,
sich klar zur Irrtumsfähigkeit zu bekennen und deswegen
die möglichen Irrtumspotenziale genau auszuloten.
Wer hier Verlässlichkeitsangaben nicht aufgreift
und sie nicht auswertet, sozusagen wer sie ausklammert,
von dem wird keine Einschätzung von Irrtumspotenzialen
zu erwarten sein. – Eine ja/nein-Entscheidung, eine
deterministisch geprägte Beurteilung, kann
dann auf sehr dünnem Eis gebaut sein.
Mit freundlichen Grüssen
Rudolf Uebbing
Sehr geehrter Herr Kannenberg,
ich sehe gerade (erst im Nachhinein, wohl infolge Kommentarüberschneidung,
wir tippen gerade gleichzeitig unsere Texte z.B.), dass Sie
den Begriff Nachrechnen nochmal neu definieren. Ich will
darauf bitte später antworten.
Mit freundlichem Gruß
Rudolf Uebbing
Uebbing,
im folgenden wieder meine Zusammenfassung des Tages. Das lief ja heute relativ unspektakulär mit ihnen. Offenbar ist es von Vorteil, wenn sie
weniger Zeit zum Schwurbeln haben.
Einige ihrer Aussagen sind jedoch wieder ein Rückfall in das gewohnte Schema. Im Einzelnen:
Erneute Erwähnung des Strohmanns, obwohl ich ihnen diesen bereits zerlegt habe. Wem wollen sie mit dieser hartleibigen Beratungsresistenz imponieren?
Nochmal, Uebbing. Lassen sie die Finger von der Bohr-Einstein-Kontroverse. Oder wollen sie sich auch auf wissenschaftshistorischem Feld lächerlich machen? Der übrige Teil ihres Kommentars ist zum Haare raufen. Ihre physikalische Inkompetenz haben sie bereits zur Genüge demonstriert. Lassen sie es auf diesem Feld. Das ist nur ärgerlich.
Ah, das nächste Borstenvieh im Anflug. Super, Uebbing! Alternativ dazu empfehle ich ihnen ebenfalls auf astronews.com den Titel: Enceladus lässt es auf Saturn regnen. Ich hoffe, sie verstehen die Implikationen, die in den Daten von ‚Herschel‘ stecken‘.
Falsch. Sie haben entweder, wie Ralf vermutet, ein Verständnisproblem mit dem Begriff „Vergangenheitslichtkegel“, oder sie sind nicht in der Lage, das Szenario „Vakuuminstabilitäten“ physikalisch zu begreifen. Ich vermute allerdings, dass ihr bias bezüglich ihrer Mission sie dazu führt, willkürlich vorzugehen. Ihre „tatsächliche[…] Wahrscheinlichkeit“ ist eine willkürliche Vorstellung einer A-priori-Wahrscheinlichkeit, die durch die Erfahrung, die in Jaffe et al. (und nur darüber reden wir) referiert wird, nicht begründbar ist.
Die Newtonsche Mechanik und die ART beschreiben in ihrem Geltungsbereich evidente Naturereignisse. Letztere ändern sich nicht dadurch, dass man unterschiedliche theoretische Ansätze anwendet. Kurz gesagt, physikalische Theorien haben keinen Einfluss auf die Natur.
„Vakuuminstabilitäten“ können für den Vergangenheitslichkegel der Erde definitiv ausgeschlossen werden. Sie haben keinen belastbaren Erfahrungswert, der eine A-priori-Wahrscheinlichkeit grösser Null empfehlen kann. Ihre subjektive Setzung ist interessengeleitet. Macht aber auch nichts. Da die beobachtete Wahrscheinlichkeit der jeweils unabhängigen Ereignisse in den Nenner eingeht, wissen sie hoffentlich, wie sich die exakt Null auswirkt.
Uebbing. Was ist eine (Lorentz-)Transformation?
Zweites ist trivial. Erstes zeigt erneut ihre subjektive Setzung einer A-Priori-Wahrscheinlichkeit, die durch wissenschaftliches Vorwissen nicht abgedeckt ist. Ihr degree of belief ist rein agitatorisch festgesetzt.
Uebbing, so langsam kommen sie durcheinander. Kein Wunder bei ihrem Themenhopping. Sie haben das Szenario der „Vakuuminstabilitäten“ gewählt, um ihre Ziegenpeterextrapolation zu präsentieren. Bleiben sie bitte dabei. Bezüglich dieses Szenario ist das Risiko exakt Null. Und das ist auch gut so, da dieses Szenario die unmittelbarste Gefährdung bedeuten würde. Die Sicherheitsanalysen für den LHC haben aber nie behauptet, dass z. B. die Wahrscheinlichkeit, MBHs könnten enstehen, gleich Null wäre. Im Gegenteil, man hat das Even if vorausgesetzt.
Nächster Strohmann, siehe letzte Entgegnung.
Doch, doch. Sie wollen das. Wenn sie an ihre ’niederländische Ziegenpeterrechnung‘ glauben, käme nur ein genereller Forschungsstopp (inklusive der reinen astronomischen Beobachtung) in Frage. Übrigens zeichnen sie sich durch einen massiven anthropozentrischen Egoismus aus.
Würden sie endlich mal ihre lächerliche Extrapolation auf die im Zukunftslichtkegel der Erde zu erwartetenden Ereignisse anwenden, sollte bei ihnen der Groschen fallen, dass ihre Methode nichts taugt. Und damit erübrigt sich auch ihr vorletzter Kommentar:
Fazit: wieder ein vergeudeter Tag, Uebbing. Selbst auf Ralfs konsistentes Experiment (danke an Ralf!) reagieren sie nur taktisch. Ergebnisoffenheit? Fehl am Platz. Ihre Antworten laufen durch den Filter ihres bias, der sie auf Agitprop festgelegt hat.
galileo2609
„Agitprob “
Jo, immer diese probabilistische Probaganda…..
Zum Kommentar #1121 | ralfkannenberg | 27. Juli 2011, 19:04 –
hier zur These 7:
Zitat 1:
“Gehen Sie mit mir einig, dass man eine direkte Nachrechnung ebenfalls als eine Risikoanalyse interpretieren kann ? ”
Zitat 2:
„Unter einer “direkten Nachrechnung” verstehe ich einen analytischen Ansatz, im Gegensatz zu einem probabilistischen Ansatz.“
Ich möchte bitte wie folgt antworten:
Wir unterscheiden ja
a)
Ansätze, die die (zweistellige) Aussagenlogik
benutzten, und weil sie i.d.R. deterministisch geprägt sind, mit einem ja/nein-Resultat bezüglich der Risikoexistenz enden (wie im Text des LSAG-Reports 2008)
b) von Ansätzen, die probalistisch geprägt sind,
welche die Wahrscheinlichkeitslogik bemühen.
Abkürzungen:
PSA: Probalistic Safety Assessment
PRA: Probalistic Risk Assessment.
Sie enden mit der Angabe von bezifferten Risikowerten.
Ich gehe davon aus, dass Sie die Methodik
unter a) in Ihrer Fragestellung meinen (Zitat 1).
Meine Antwort dazu soll lauten:
Die Art der Risikobewertung unter a)
mag ihre speziellen Anwendungsfälle haben;
im vorliegenden Fall (LHC als eine nuklear /subnuklear
orientierte Forschungsanlage) halte ich die
PSA-Methodik für die bessere,
weil sie m e h r Informationen berücksichtigt.
Dies bringt zwar Konfidenzintervalle zum
Vorschein – also zugehörige Bandbreiten des möglichen
Geschehens, was vielleicht im ersten Moment
mehr nach Aussagenunsicherheit sieht,
was aber bestens den tatsächlichen (unsicheren)
Wissensstand abbildet.
Dies ist die Realität
einer konsequenten Beurteilung.
Die ja/nein-Logik (Aussagenlogik – „Nachrechnen“, Zitat 2)
kommt mit weniger Eingangsdaten
als Eingangsinformation aus,
bildet aber n i c h t die tatsächliche Ungewissheit
des Naturverständnisses ab – wie auch,
es fehlt ja die Berücksichtigung der Verlässlichkeitsangaben!
Nun, in den im LSAG-Report referenzierten Arbeiten
existieren sehr überzeugende probalistische Ansätze.
Leider werden diese im LSAG-Report nicht deutlich hervorgehoben, weiter fortgeschrieben und zu abschließenden Resultaten weiter entwickelt. Letzten Endes fällt man in eine einfachere Aussagenlogik zurück, was zugleich eine erhebliche Ersparnis an Analyseaufwänden bedeutet –
eine Zeitersparnis, die vielleicht verständlich wird,
wenn wir berücksichtigen, dass nach fünf Jahren zum vorhergehenden Sicherheitsbericht (LSSG, 2003) nur noch drei Monaten den Publikationszeitpunkt des Reports vom LHC-Start
im September 2008 trennten.
Von einem Sicherheitsbericht wird erwartet,
dass er v o r dem zu beurteilenden Ereignis
(als dessen Untersuchungsgegenstand) publiziert wird
– wie geschehen.
An Galileo2609:
Sie schreiben zur Vakuuminstabilität:
„Bezüglich dieses Szenario ist das Risiko exakt Null.“
Die Wissenschaftler Jaffe, Busza, Sandweiss u.
Wilczek r e s u m i e r e n:
„Thus on empirical grounds alone, the probability of a vacuum transition at RHIC is bounded by 2×10**−36.“
Übersetzt:
„Somit ist allein aus empirischen Gründen die Wahrscheinlichkeit
eines Vakuumsüberganges am RHIC begrenzt auf 2×10**-36“.
Nun, Ihre Aussage von „exakt Null“ hätte folgende
Aussagen von JBSW vorausgesetzt:
„Somit ist allein aus empirischen die Wahrscheinlichkeit
eines Vakuumsüberganges am RHIC begrenzt auf den
Wert exakt Null.“
Zeigen Sie doch, bitte, eine entsprechende Aussage von JBSW an, die den zitierten Text hier zurücknimmt
und die Gewissheit eines Risikos mit dem Wert
„exakt Null“ nachweist.
(Hier hebe ich nochmal den Resumee-Charakter hervor;
der Originalsatz steht im unteren Teil eines
Absatzes und fängt mit „Thus“ an,
was resumiert, etwa wie in deutscher Sprache: So, somit, folglich,
derart.)
Uebbing,
ahja, jetzt kommt die Goritschnigsche Verdummungsphrase!
Dazu ist bereits alles gesagt. Wenn sie Methodik und Inhalt des papers von Jaffe et al. nicht verstehen, ist das ihr Problem. Wobei ich nichts anderes erwartet habe.
galileo2609
Oh mann, Uebbing, lernen Sie endlich, was Jaffe et al wirklich sagen. Die bemühen da etwas, das Vergangenheitslichtkegel genannt wird. Versuchen Sie endlich einmal zu verstehen, was damit gemeint sein könnte.
Sie haben die Zahl immer noch nicht kapiert.
Inhaltlich gelesen und verstanden wird sofort klar, das bei Jaffe wirklich die NULL steht.
Eine Feststellung:
Leider finde ich immer noch nicht den Satz bei
JBSW, der Ihre Meinung belegen soll, vor.
So ein Zitat sollte z.B. lauten:
“Somit ist allein aus empirischen Gründen die Wahrscheinlichkeit eines Vakuumsüberganges am RHIC begrenzt auf den Wert e x a k t Null.”
Aber: Diese Autoren geben dort definitiv einen
Wert g r ö ß e r als Null an.
Damit ist meine Anfrage abschließend beantwortet.
Uebbing, Sie betreiben sinnlose Wortpickerei.
Was ist ein Vergangenheitslichtkegel?
Noch eine sachliche, klare Erläuterung:
Der Vergangenheitslichtkegel besagt,
dass eine Vakuuminstabilität n i c h t stattgefunden hat;
daraus kann n i c h t zwingend geschlussfolgert werden,
dass eine Vakuuminstabilität in der Zukunft ausgeschlossen werden darf.
Warum kann man dies nicht ausschließen ?
Antwort: Die Wirkmechanismen bei Kollisionen mit
hohen Energien sind n i c h t vollständig bekannt.
Logischerweise begrenzen JBSW daher eine Vakuumsinstabilität n i c h t auf den Wert
exakt Null, sondern sie geben eine
Wahrscheinlichkeitsobergrenze g r ö ß e r als Null an.
Schlussfolgerung:
Ein Nullrisiko ist hier wissenschaftlich
nicht nachgewiesen.
Anmerkung:
Wegen des kleinen Wahrscheinlichkeitswertes
können wir uns, jeder für sich, beruhigt zurücklehnen;
eine Vorhersage,
ob ein HEP-Experiment die Vakuumsinstabilität erzeugt,
wird auf ein logisches Nein ausgehen, hat aber dann n u r
die Qualität einer Prognose wie beim Würfeln,
nämlich z.B. dass der nächste Wurf keine Sechs ergeben wird.
Was tatsächlich hier kleine Wert bei der Vakuumsinstabilität
auch extremst kleine Werte bedeuten, muss man sich erst noch konkret verdeutlichen –
extrapolierbare Maßstäbe dazu
bestehen in Form von nationalen Vorschriften (Niederlande, Schweiz, England); daran kann man
die enorme Bedeutung auch kleinster Werte ermessen.
Dieser Arbeitsschritt einer Bedeutungsbewertung steht aus!
Die hier im Forum oft bevorzugte Denkweise
gemäß einer einfachen Aussagenlogik ist
n i c h t ausreichend; die Anstrengungen und
Mühen der Anwendung einer Wahrscheinlichkeitslogik
(PSA, PRA) stehen aus – das heißt, bislang
wurde die Bandbreite der möglichen Ereignisse
n i c h t in einem erkennbar ausreichendem
Maße quantifiziert;
man lese dazu a u f m e r k s a m
den LSAG-Report 2008.
Das ist der Kontext, den Sie in bester Agitationsabsicht gar nicht erst erwähnen. Da steht die exakte Null. Die folgende Zahl ist eben nicht die von Ihnen so herbeigesehnte Wahrscheinlichkeit für den Vakuumübergang.
Im Universum hat ein solches Ereignis ausgelöst durch Teilchenkollisionen noch nie stattgefunden. Das ist Fakt. Ungefähr genauso wie die Tatsache, dass Äpfel vom Baum nach unten fallen.
Ach ja:
Wenn Sie jetzt solche Verhältnisse, die nicht einmal die ersehnte Wahrscheinlichkeit darstellen, zur Grundlage der Beurteilung von technischen Anlagen machen wollen, dann können Sie heute am Tag absolut a l l e s stilllegen. Nicht nur Forschungsanlagen, sondern ebenso auch das Leben an sich. Oder gleich das Universum. Denn a l l e s im Universum könnte ja gefährlich sein im Lichte der Uebbingschen spekulativen Physik der beliebig unendlichen Möglichkeiten. Vielleicht verschwindet auch die Sonne einfach morgen am Tag, obwohl Sie in den letzten 5 Mrd. Jahren dies offenbar nie getan hat. Was meinen Sie eigentlich, wie es da aussieht, „on empirical grounds alone“? Oder das Gravitationsgesetzt kehrt sich um, auch wenn es im gesamten Vergangenheitslichtkegel offenbar mehr oder weniger so wie heute funktioniert hat.
Doch, kann es. Wenn 10**47 ähnliche Ereignisse bereits sattgefunden haben und dabei kein Übergang ausgelöst wurde, dann kann man guten Gewissens davon reden, dass offenbar diese Voraussage einiger Modelle schlicht falsch ist.
Genauso wie man guten Gewissens davon ausgehen kann, dass auch die Gravitation in ein paar Jahren noch genauso funktioniert wie heute.
Das ist keine Antwort, das ist Blödsinn.
Wissen Sie, man muss nciht immer den genauen Mechanismus von etwas kennen, um trotzdem gewisse Folgen eindeutig auschließen zu können.
Wir wissen bei vielen ganz alltäglichen Prozessen bis heute nicht, wie sie genau funktionieren. Trotzdem können wir aber relativ sicher sagen, dass die Welt durch sie nicht vernichtet wird.
Sehr geehrter Herr Uebbing,
richtig.
Vielleicht. Richtig wäre, dass sich die Autoren dazu gar keine näheren Gedanken machen.
Richtig.
Das hat auch niemand behauptet.
Deswegen die Zahlen nochmals im richtigen Zusammenhang, man muss einfach nur die richtigen Sachen vergleichen: Während des bisherigen Weltalters gab es 10**47 beobachtbare CR-Kollisionen – dieses “beobachtbar“ ist dieser Vergangenheitslichtkegel, denn wenn eine von denen eine Vakuuminstabilität ausgelöst hätte, welche sich bekanntlich mit Lichtgeschwindigkeit fortsetzt, dann hätten wir dies bemerkt. Da keine dieser 10**47 beobachtbaren CR-Kollisionen eine Vakuuminstabilität ausgelöst hat, ist die Wahrscheinlichkeit, dass eine CR-Kollision eine Vakuuminstabilität auslöst, 1 zu 1**47. Dieses „keine“ sind die 0% und aufgrund ihrer Anzahl lässt sich dann die Wahrscheinlichkeit angeben.
Die Wahrscheinlichkeit, dass eine der vergangenen CR-Kollisionen eine Vakuuminstabilität ausgelöst hat, ist also exakt 0%; die Wahrscheinlichkeit, dass eine davon eine CR-Kollision eine Vakuuminstabilität auslösen kann, ist kleiner als 1:10**47.
Freundliche Grüsse, Ralf Kannenberg
Hallo Galileo,
die Idee ist nicht, dass ich ein „Experiment“ durchführe, sondern dass ich meine Argumentation der vergangenen 3 Jahre mal formal zusammenfasse und den Entwurf dabei zusammen mit einem Vertreter des Widerstandes korrigiere.
Ziel ist es, dass man dann jeden Einwand (wenigstens die meisten davon) durch Angabe einer These widerlegen kann.
Wunschziel wäre es, dass bereits während der gemeinsamen Erarbeitung der Thesen ein Bewusstsein wächst, wie man mit diesen ultrakleinen Wahrscheinlichkeiten sinnvoll umgehen kann; zwei dem Widerstand unklare Punkte sind ja nach wie vor die Vergleichbarkeit von Restrisiken (These 6) und die bessere Ausssagekraft einer analytischen Sicherheitsanalyse („direktes Nachrechnen“) zu einer naturgemäss vage gehaltenen Risikoanalyse (These 7). Ebenfalls werden ja gerne Normen (DIN…) oder z.B. fehlgeschlagenen Marsmissionen zitiert, welche sich aber nicht auf physikalische Sachverhalte, sondern auf ingenieurmässige Sachverhalte beziehen (These 2). Verbleibt noch der oftmals als Veralberung empfundene Vergleich mit Hochgeschweinidgkeitszügen, spontanem Sonnenerlöschen oder Tippen auf der Tastatur, welcher durch These 4 abgedeckt werden soll. Und die feststellung, dass in der Praxis immer ein wenn auch ultrakleines Restrisiko verbleibt, wird durch These 1 abgedeckt.
Freundliche Grüsse, Ralf
An dieser Stelle sollte noch einmal die Meinung eines bundesdeutschen Verwaltungsgericht zitiert werden,
was das Thema einer Sicherheitskonferenz betrifft.
Die am 27. Jan. 2011 gerichtlich protokollierte Meinung
des Kölner Verwaltungsgericht, trotz einer Klageabweisung, lautet:
‘Das Gericht gibt seiner Meinung Ausdruck,
dass es möglich sein sollte,
die unterschiedlichen Sicherheitsaspekte,
die auch Gegenstand der beiden Sicherheitsberichte
aus dem Jahr 2003 und 2008 waren,
im Rahmen einer “Sicherheitskonferenz” diskutieren zu lassen.’
Der Satz des Richters Niemeier ist vorzufinden auf Seite 7
im Gerichtsprotokoll zur öffentlichen Sitzung der 13. Kammer
des Verwaltungsgerichts Köln vom 27. Jan. 2011
in dem verwaltungsgerichtlichen Verfahren 13 K 5693/08
gegen die Bundesrepublik Deutschland
wegen Einwirkung des Betrieb des Protononbeschleunigers
LHC in Genf.
Der Antragsgegenstand der Klage bezog sich konkret auf
das Abstimmverhalten der deutschen Vertretung im CERN-Rat; die Klage wurde bedauerlicherweise vom Verwaltungsgericht abgewiesen. Der Rechtsanwalt bemüht sich um eine Berufung.
An Hans:
Zu Ihrer Ausführung
„Wenn 10**47 ähnliche Ereignisse bereits sattgefunden haben und dabei kein Übergang ausgelöst wurde, dann kann man guten Gewissens davon reden, dass offenbar diese Voraussage einiger Modelle schlicht falsch ist. „:
Sie reden von „guten Gewissen“ –
nun, eine s t r e n g e wissenschaftliche Betrachtungsweise bei JBSW ergibt eine
Irrtumsobergrenze, hier eine bezifferte Wahrscheinlichkeitsobergrenze u n g l e i c h Null
(sh. Jaffe et al.);
in der Konsequenz sind dazu a n g e m e s s e n e Schlussfolgerungen zu entwickeln.
Derartige Bemühungen machen zwar Autoren wie
A. KENT, T. ORD und Prof. E. JOHNSON – leider
wird dies vom Mainstream nicht aufgegriffen und
weiterverarbeitet.
Das Ergebnis wären zum Beispiel konkrete
risikovermindernde Maßnahmen, keineswegs
der befürchtete Forschungsstop.
Eine gesellschaftliche Diskussion um die Bedeutung der Hochenergiephysik wäre ebenfalls die Folge (z.B. in etwa
vergleichbar mit PID) und angesichts der Gewichtigkeit der Forschungsprojekte auch nötig.
Sehr geehrter Herr Kannenberg,
wenn ich Ihre Worte
„Wunschziel wäre es, dass bereits während der gemeinsamen Erarbeitung der Thesen ein Bewusstsein wächst, wie man mit diesen ultrakleinen Wahrscheinlichkeiten sinnvoll umgehen kann;…“
nochmals durchlese, so ist dies ziemlich
genau a u c h mein Anliegen.
Jedoch gilt für mich: Auch ultrakleine
Werte sind, wie eine Plausibilisierung ergibt,
sehr wohl von einer bestimmten, nicht auszulassenden
Bedeutung. Eine zugehörige, notwendige Diskussion
ist in der Öffentlichkeit erkennbarerweise nicht erfolgt.
Zusätzlich gilt:
Nach strenger Berücksichtigung der
Verlässlichkeitsangaben (Auswertungen von
Standardabweichungen, Konfidenzintervallen,
Signifikanznivaus) kann sich ein v i e l
höheres Restrisiko herausstellen –
T. ORD hat dabei eine Gefahrenwahrscheinlichkeit
von 1: Million bis hin
zu 1:10000 diskutiert.
Da der LSAG-Report keine quantifizierenden
Irrtumsgrenzen / Risikoobergrenzen abhandelt,
ist derzeit ein deutliches Manko festzustellen,
welches durch ergänzende Analysen (auf Basis einer Wahrscheinlichkeitslogik; PSA / PRA) behoben werden
kann.
Eine vornehmlich durch eine zweistellige
Aussagenlogik geprägte Analyse, die zufällige
Fehlerhaftigkeiten nicht explizit mit ins Kalkül
aufnimmt, halte ich für unzureichend –
wenigstens in einem Fall der hier diskutierten ausserordentlichen Bedeutung.
Mit freundlichem Gruß
Rudolf Uebbing
Entscheidend für die Meinung des Gerichts ist das Urteil. Und dort steht zerst einmal weifelsfrei, dass das Gericht keine Konferenz fordert.
„Es sollte möglich sein“ – nun, dazu sollte die „Kritikerseite“ doch erst einmal etwas vorlegen, das überhaupt wert wäre, diskutiert zu werden. Weder Sie noch Rössler noch sonstwer hat bisher etwas vorgelegt, was auch nur den Hauch von Substanz hätte.
Wie man derzeit auf lifeboat.com schön sehen kann, erfüllt beispielsweise Ihr Kronzeuge Rössler wissenschaftliche Standards n i c h t. Eine solche Konferenz unter Beteiligung des Tübinger Hochstaplers wäre allenfalls ein Comedy-Event.
Im Ürbigen ist es bemerkenswert, dass Sie hier wieder einmal unter Rückgriff auf ausserwissenschaftliche Sphären versuchen abzulenken.
Na, ohne sinnfreies Wortpicken gehts bei Ihnen nicht.
10**47 Kollisionen im Vergangenheitslichtkegel, die gesamte Vergangenheit bzgl Teilchenkollisionen spricht eine deutliche Sprache. Die Zahl bei Jaffe et al ist nicht Ihr ersehntes Risiko. Und auch keine Irrtumsobergrenze.
Weiterhin: Wenn Sie genau diese Art Zahl als relevant einstufen zur Diskussion von Anlagen, dann müssen Sie zwangsweise auch über ein Verbot des Universums nachdenken. Denn immerhin besteht ja keine Sicherheit, gemäß Uebbing, dass Naturgesetze auch in Zukunft noch die gleiche Form haben. Wenn also ad hoc diese sich dergestalt ändern sollten, dass Teilchenkollisionen plötzlich doch etwas vermögen, was in der gesamten bekannten Vergangenheit des Universums nicht möglich war, dann ist a l l e s möglich.
Sie können dann auch über den Zerfall des Protons nachdenken. Über Äpfel, die auf einmal nach oben fallen. Über die Sonne, die sich auf einmal aus dem Staub macht. USW:
Ich habe wenig Hoffnung, dass bei Ihnen der Groschen noch fallen wird. Sie sind zu fixiert darauf, Ihre Zahl zu retten, als das Sie ernsthaft über den Inhalt und die logischen Konsequenzen nachdenken würden.
„Eine gesellschaftliche Diskussion um die Bedeutung der Hochenergiephysik wäre ebenfalls die Folge (z.B. in etwa
vergleichbar mit PID) und angesichts der Gewichtigkeit der Forschungsprojekte auch nötig.“
Demagogisches Vergleichen von Äpfel und Birnen, das geht Ihnen wirklich bemerkenswert leicht von der Hand.
Und nein, bei Berücksichtigung der Zahlen auf welche Sie hier fixiert starren, müssten Sie viel weiter gehen als nur zur Diskussion der Hochenergiephysik. Sie müssten das Leben, das Universum an sich diskutieren.