Otto E. Rössler – Anthologie eines Welträtsellösers
Otto E. Rössler reibt sich nun bereits seit Jahren an den Institutionen der akademischen Wissenschaft. Neben bizarren Aktionen setzt der wissenschaftliche Aussenseiter und Mentor des LHC-Widerstands über Dekaden hinweg auch auf eine Welterklärung, die mit skurrilen „Theorien“ die Wissenschaft umkrempeln soll. RelativKritisch hatte dem Tübinger Mediziner angeboten, seine grenzwertigen Texte kommentiert zu veröffentlichen, wenn er keine anderen Möglichkeiten mehr hat. Otto E. Rössler hat dieses Angebot jetzt zum ersten Mal genutzt.
RelativKritisch stellt mit dieser speziellen „Anthologie eines Welträtsellösers“, Otto E. Rössler einen Platz für eine Veröffentlichung seiner Texte und der freien Diskussion dazu unzensurierten Raum zur freien Verfügung. Dabei sind lediglich die allgemeinen rechtlichen Pflichten des Betreibers des Portal RelativKritisch und die von ihm übergreifend erstellten Nutzungsbedingungen zu beachten. Die Redaktion von RelativKritisch behält sich im Rahmen dieser Voraussetzungen Moderationsmassnahmen vor.
Otto E. Rössler hat einen ersten Beitrag und dessen eigene englische Übersetzung auf RelativKritisch veröffentlicht. Seinen Text „Fröhliche Wissenschaft mit lachend in Kauf genommener nicht unwahrscheinlicher Todesfolge für alle“ und die ersten Kommentare dazu veröffentlichen wir nachstehend.
- Diskutiere über Otto E. Rössler und seine „Anthologie eines Welträtsellösers“ auch im Forum Alpha Centauri!
RelativKritisch E-Edition
Als ePub herunterladen 2041Die Artikel von RelativKritisch gibt es auch als E-Book im ePub-Format zum kostenlosen Download!
Ähnliche Beiträge
Kommentare sind geschlossen.
Hallo zusammen,
zum 1000.Blog-Eintrag erlaube ich mir als Ergänzung zu all‘ den Wahrscheinlichkeits-Beurteilungen einen off-topic-Beitrag: Wie gross ist die Wahrscheinlichkeit, dass man aus dem Topf der reellen Zahlen zwischen 0 und 1 (spielt keine Rolle, ob man die beiden Grenzen dazu nimmt oder nicht) eine rationale Zahl herauszieht ?
Nun, obgleich es unendlich viele rationale Zahlen in diesem Bereich gibt und – schlimmer noch – man jede irrationale Zahl beliebig genau durch rationale Zahlen annähern kann – ist die Wahrscheinlichkeit, eine rationale zu ziehen, exakt gleich 0. Ja sogar eine algebraische (also so Wurzeln, z.B. (1/2)*Quadratwurzel(2) ) hat Wahrscheinlichkeit exakt 0, diese ist kein epsilon grösser. Das hängt damit zusammen, dass abzählbare Mengen (auch abzählbar unendliche Mengen) im Kontinuum eine Nullmenge bilden. Das Ganze hat übrigens durchaus praktische Anwendungen, denn es gibt schöne Integrale, die als Riemann-Integral nicht konvergieren, die aber durch diese Erweiterung konvergieren können (Stichworte: Masstheorie, Lebesque-Integral).
Freundliche Grüsse, Ralf
Sehr geehrter Herr Kannenberg,
vielen Dank für dieses herrliche Beispiel,
was uns die Mathematik und Ihre Kenntnisse
hier liefert.
Ich mache mal darauf aufmerksam,
dass offenbar die physikalische Realität konkrete, quantifizierte Grenzen
hat – also offenbar in aller Regel eine endliche Menge
oder eine endliche Größe darstellt,
d.h. wie die Wissenschaft uns lehrt,
ist das beobachtbare Weltall z e i t l i c h
begrenzt (sh. Weltalter) und auch was
die Massen betrifft (Dirac hat ja darüber
intensiv nachgedacht).
Wir können in der Realität schlecht einen
Bruch bilden, der z.B. den Zähler exakt
1 hat, und den Nenner gegen unendlich laufen
lassen, wenn wir im diesseitigen Weltall
(in der beobachteten Realität) bleiben wollen
und dabei Teilchenkollisionen auszählen –
hier ist speziell die Teilchenzahl als endlich
anzusehen.
Eine Frage an die Mathematik Ihres Beispiel:
Wie schütze ich mich davor, eine rationale
Zahl zu ziehen, wenn dazu die Wahrscheinlichkeit
„exakt Null“ ist ?? Ich kann doch eine rationale
Zahl ziehen, denn diese sind auch im Topf.
Dies würde eher – laienmäßig – die Vermutung
nahe legen, die von Ihnen angegebene Wahrscheinlichkeit
zielt / strebt gegen Null – wie kann ich irren ?!
Mit freundlichen Grüssen
Rudolf Uebbing
Uebbing,
einer Metadiskussion über ihren ‚Diskussionsstil‘ und ihre Kompetenzen werden sie sich nicht entziehen können. Denn sie sind
eben ein wesentlicher Teil des Problems. Das liegt an folgenden Punkten:
1. einer von naturwissenschaftlicher und im besonderen physikalischen Bildung unabhängigen Inkompetenz, kommunizierbare Beiträge zu schreiben
2. einer hartleibigen Beratungsresistenz
3. einhergehend mit Diskussionsunfähigkeit
4. Billigung wissenschaftsferner Motive und Methoden von Rosstäuschern wie Otto E. Rössler und anderen
5. mit denen sie sich organisatorisch verbunden haben und
6. den Maschinensturm auf den LHC in ausserwissenschaftliche Arenen getragen haben
7. obwohl ihre physikalische und methodische Kompetenz dafür nachweislich nicht ausreicht, was sie
8. nicht davon abhält individueller und/oder kollektiver Radikalisierung Vorschub zu leisten (Stichwort: „Notwehrexzess“) und
9. dabei die von ihnen diffamierten und in ihrer persönlichen und wissenschaftlichen Integrität verletzten Wissenschaftlerinnen und Wissenschaftler als Zielpersonen markieren und
10. ihnen widersprechende Positionen und Widerlegungen entweder vorsätzlich oder qua mangelnder Kompetenz aussitzen und ignorieren, aber niemals in ihre Themenbearbeitung einfliessen lassen.
Dafür wären drei Jahre an sich ausreichend gewesen. Es kommt aber nichts Belastbares, weder physikalisch noch methodisch, das ihr kaltschnäuziges Verdikt, der LSAG-Report sei fehlerhaft und wissenschaftlich unredlich, legitimieren könnte.
So was, Uebbing,
um nur eines der letzten Beispiele zu nennen, ist weder physikalisch, noch sachlich, nicht mal schlechte science fiction, sondern einfach nur schrottiger und grober Unfug. Sie werden verstehen, dass solche Aussagen auf ihren Urheber zurückfallen. Wer wie sie auf solch einem Mist den Anspruch aufbauen will, die Grundlagenforschung abzuschaffen und Wissenschaftlerinnen und Wissenschaftler unter den Generalverdacht gefährlicher ‚mad scientists‘ zu stellen, muss es sich schon gefallen lassen, ins Säurebad geworfen zu werden, um die persönliche Substanz freizulegen.
Dabei ist wenig Positives erhalten geblieben. Sie haben sich als Agitator präsentiert, um eigenen und soufflierten Irrationalismen Einfluss zu verschaffen. Die Metadiskussion werden sie daher solange nicht aufhalten, wie sie ihr Verhalten nicht ändern. Auf einen Nenner gebracht: „Denn sie säen Wind und werden Sturm ernten“ (Hosea 8, 7) oder mit den Worten von Karl Popper:
Danach sieht es nicht aus, wie ihre Reaktion auf Solkars Forderungen an sie in der causa Otto E. Rössler zeigen.
galileo2609
@galileo2609:
Leider sehe ich keinerlei Entschuldigung für die
nachlesbaren, dokumentierten, ziemlich primitiven
Verbalausfälle in der Vergangenheit.
Ihren ständigen Personalisierungsversuchen folge ich nicht. Sie reden von „unredlich“ – ich wünschte genau, dies würden Sie besser nicht tun; ich jedenfalls will
nicht dieses Wort benutzen. Sie beschädigen damit die Kommunikation. – Gute Wissenschaft ist immer offen für Irrtumserkenntnis – diese ist geradezu Ziel – und für Verbesserungen. Ich glaube, dass Wissenschaftler am CERN sich über eine konstruktiv gemeinte Rückmeldung freuen werden.
In Kürze bitte nochmal: Auffällig ist die abschließende Perfektion des
Resultates im LSAG-Report 2008 – wobei zu bedenken
ist, dass hier kein idealisierender, kein rein mathematischer
Gegenstand der Analyse vorliegt,
sondern die physikalische Realität, welche
mit einigen ihrer teilweise massiven Unwägbarkeiten
beurteilt wird und welche gerade selbst noch intensiver Untersuchungsgegenstand
sind – wie zum Beispiel die Kosmische Strahlung.
Die Obligation, Irrtumspotenziale vollständig auszuloten,
kam in der hier kritisierten Wissenschaft bislang zu kurz –
diese begründete und dokumentierte Meinung steht
im Kommentar
#1002 | galileo2609 | 24. Juli 2011, 22:46
in der Kritik;
die Personalisierung dieser Kritik ist beachtenswert.
Für die Mühe, einen Katalog mit 10 Punkten
aufzustellen, sozusagen einen Spiegel,
der Ihre Sicht zu meinen Anstrengungen wiedergibt,
hier vorzuhalten, zolle ich schon gewissen Respekt;
leider ist er gegen die Person gewendet, aber nicht für
die Sachklärung geeignet.
Dennoch erweisen sich ihre 10 Punkte nicht als
zutreffend, wenn Sie beginnen, dezidiert im Detail
nachzuprüfen.
Ich versichere, wer präzise auf die Sicherheitsanalysen
hinschaut, wird nach eingehender Beschäftigung
mit der Thematik kritisch über einige Eigenschaften
des LSAG-Reportes 2008 denken.
Eine Grundlage meiner Antworten werden meine
Ausführungen, die ich auf meiner
Webseite unter „persönliche Sicht“
( http://rudolfuebbingdo.de/Persoenliche_Sicht.html )
als pdf-Datei niedergelegt habe – dort aufrufbar:
http://rudolfuebbingdo.de/Begruendete-Zweifel_LHC_2.5.pdf
(Stand v. 17.02.2011) sein.
Hier geht es u.a. darum, systemische Entwicklungen,
die auch mit der sog. normativen Kraft des Faktischen
zu tun haben, auf schädliche Auswirkungen hin zu prüfen.
Das heißt: Ein Bias ist erkennbar – sei es aus Zeitmangel,
sei es wegen einer Konzentration auf den Forschungserfolg –
wo ein derartiger Einfluß eine tiefgehende, nötige Analyse mittels
eines probalistischen Ansatzes nicht so recht zulassen will;
dieser ist freilich wesentlich aufwendiger, weil
z u s ä t z l i c h e Informationen (Verlässlichkeitsangaben)
einfließen und diese zu bewerten u n d auszuwerten
sind, was ich oft verdeutlicht habe.
Schon bei einfacher Sichtung des LSAG-Reportes 2008
können Fragen nach Auslassungen gestellt werden;
Dr. M. Leggett legte dar,
dass nur zu einem kleinen Bruchteil der LSAG-Report 2008
zeitgemäßen Sicherheitsanalysen entspricht.
Wo eindeutig zu erkennen ist, dass ein echtes Nullrisiko
nicht nachgewiesen werden kann und dies auch mit
wissenschaftlichen Dokumenten belegt werden kann,
erwarte ich von der Wissenschaft – insbesondere im
Rahmen einer Sicherheitsanalyse — derartige Sachverhalte
explizit zu erwähnen und klar herauszuarbeiten,
d.h. hier umfassend Irrtumspotenziale auszuloten
und zu quantifizieren; probalistische Ansätze existieren in
den referenzierten Arbeiten; bedauerlicherweise werden
sie nicht entschlossen aufgegriffen und entscheidend weiterentwickelt.
Ein allzu perfektes Sicherheitsresultat kann irrtümlich
beruhigen und über die wahren Verhältnisse – hier unbekannte
physikalische Parametrisierungen – versehentlich hinwegtäuschen.
@Galileo2609:
Ein Beispiel, was sofort klargestellt werden kann:
Sie zitieren mich:
„… – tritt ein:
Der diskutierte Vakuumsübergang.“
und führen aus:
„…um nur eines der letzten Beispiele zu nennen,
ist weder physikalisch, noch sachlich,
nicht mal schlechte science fiction,
sondern einfach nur schrottiger und grober Unfug.“
Ich halte einfach aus einer anerkannten Facharbeit dagegen das Zitat von Jaffe, Busza, Sandweiss und Wilczek:
„Thus on empirical grounds alone, the probability of a vacuum transition at RHIC is
bounded by 2×10**−36.“
Die von der Wissenschaft explizit offen gehaltene Möglichkeit
habe ich aufgegriffen und im Detail spezifiziert,
wenn auch spekulativ (Spekulativ ist
auch die Viele-Weltentheorie.).
Prüfen Sie doch, bitte, ob Sie nicht zugleich
die eindeutig wissenschaftlicherseits offen gehaltene Möglichkeit, die JBSW mit einer quantifizierten Obergrenze
n i c h t ausschließen, auch zu einem „einfach nur schrottiger und grober Unfug“ degradieren.
Mit dieser Art der Argumentation können Sie nicht überzeugen.
Sehr geehrter Herr Uebbing,
Dr.Leggett irrte sich. Und ich bin – vielleicht im Gegensatz zu einigen meiner Vorredner – davon überzeugt, dass Sie problemlos über genügend Kompetenz verfügen, die Irrtümer Dr.Leggett’s selber herauszufinden.
Freundliche Grüsse, Ralf Kannenberg
Sehr geehrter Herr Uebbing,
da so unterschiedliche Auffassungen über den Umgang mit ultrakleinen Restrisiken bestehen, möchte ich einmal versuchen, anhand ganz einfacher Beispiele einen Thesen-Katalog zusammenzustellen. Da sich einerseits kaum jemand intuitiv diese ultrakleinen Restrisiken wirklich vorstellen kann, will ich versuchen, diese ultrakleinen Restrisiken durch anschauliche Vergleiche zu beschreiben, von denen wir zumindest „glauben“, sie uns intuitiv vorstellen zu können. Das ganze wird auch vielleicht 10 Thesen hinauslaufen. Ich will diese Thesen zunächst anhand von Fragen erarbeiten.
Fangen wir also mit These 1 / Frage 1 an: Wir haben gesehen, dass das Restrisiko, dass die Summe der natürlichen Zahlen 2+3 von der natürlichen Zahl 5 verschieden sein könnte, echt grösser als 0 ist. Auch wenn es zunächst abstrakt aussieht, so liegen der Richtigkeit dieser Gleichung alle ingenieurmässigen Konstruktionen zugrunde und ein Fehler dieser Aussage hätte vermutlich gravierende Auswirkungen; ich gehe sogar soweit, dass die Auswirkungen eines solchen Irrtums auf einer Schwereskala 1 bis 10 steigender Auswirkungen die höchste Stufe 10 erreichen würde.
Darf ein Lehrer nun in der Schule lehren, dass 2+3 hundertprozentig gleich 5 sei oder muss der Lehrer noch einen zusätzlichen Hinweis anbringen, dass möglicherweise ein anderes Resultat herauskommen könnte ?
Freundliche Grüsse, Ralf Kannenberg
Rudolf Übbing schrieb am 25. Juli 2011 um 00:29 (gerichtet an galileo2609)
Herr Übbing,
wie schätzen Sie eigentlich Ihr eigenes Kommunikationsverhalten ein?
Zu
#1005 | ralfkannenberg | 25. Juli 2011, 09:23 (ad a), sh.u.)
#1006 | ralfkannenberg | 25. Juli 2011, 09:57 (ad b))
Lassen Sie mich bitte listen:
zu a)
Die Punkte, die Dr. Legget in seiner Analyse
des LSAG-Prozesses beschrieben hatte, halte ich für zutreffend;
seine Beschreibungen sind m.E. einfach und logisch begründet;
gegenteilige Klarstellungsversuche überzeugten hier nicht.
zu b)
Ich halte es nicht für verkehrt, wenn der o.g. Lehrer gelegentlich
nachfragt, ob er sich verrechnet hat –
dies sagt eigentlich schon alles – nämlich es bezeugt
eine grundsätzliche Irrtumsfähigkeit,
zu der man stehen kann oder nicht.
(Gerade in dem Moment, wo der Lehrer die einfache Addition
3 + 2 = 5 den Schülern mitteilt, kann er einen Fehler machen,
z.B. die 5 mit der 6 verwechseln.
Ein solches Fehlergeschehen,
aktuell im Moment der Wissensvermittlung sich ereignend,
relativiert das „2 + 3 = 5“ – Beispiel.)
Gleichgültig ist, auf welche Weise
eine sehr kleine Irrtumsmöglichkeit sich ergibt –
hinreichend ist lediglich, eine zutreffende,
korrekte Begründung zu liefern.
Z.B. kann im Falle der Vakuumsinstabiltität
ein Zweifel auf Grund unvollständigen
Wissens n i c h t ausgeschlossen werden;
Jaffe, Busza, Sandweiss und Wilczek stehen dazu
(sh. Zitat oben: „bounded“ „probabilities“).
Irrtumsmöglichkeiten sind einfach da,
und es gilt, mit ihnen angemessen umzugehen.
Sie auszuklammern kann besonders in Risikoanalysen
zu einer Gefahr werden.
In der Physik werden dazu in der Regel Verlässlichkeitsangaben wie
Standardabweichungen, Vertrauensintervalle und Signifikanzniveaus
quantifizierend gebildet;
hinzu treten systematische Fehlermöglichkeiten
und auch manchmal grobe Fehler. Fehlerhaftigkeiten
sind denkbar in Theorien, Modellen und Kalkulationen –
dies gilt es in einer wichtigen Angelegenheit u m f a s s e n d
zu bewerten;
Wissenschaftler haben dies am LSAG-Report 2008 bereits beanstandet.
Im Falle von betroffenen ausserordentlich hohen Gütern
ist es entscheidend, kleine und a u c h sehr kleine
Gefahrenwahrscheinlichkeiten k o r r e k t zu gewichten
und zu bewerten.
In drei europäischen Staaten
gibt es Regelungen zu Grenzrisikofestsetzungen,
welche für die Handhabung derartiger Risikofälle
geradezu sich anbieten.
Zieht man die niederländischen Regelungen heran
und extrapoliert sie auf die RHIC-
und LHC-Verhältnisse, so staune ich,
dass die Gewichtigkeit dieser Hochenergieexperimente leider immer
noch nicht in das öffentliche Bewusstsein vorgedrungen ist.
Man kann eben zu einer grundsätzlichen Irrtumsfähigkeit stehen,
oder man kann nicht zu ihr stehen.
Auch in dem Moment der Mitteilung eines
Ergebnisses kann jemandem ein Fehler genau dazu passieren,
z.B. formalistisch ein Zahlendreher, eine Zahlenverwechslung
etc.
Allzu perfekte Erkenntnisse sind grundsätzlich geeignet,
Bedenken auslösen.
Die Absurdität eines idealisierenden Beispieles kann
nicht auf kleine Zahlenangabe automatisch übertragen werden,
nur weil sie extrem klein sind;
Absurditäten sind zusätzlich im Detail zu prüfen.
Absurde Beispiele mit idealisierendem Inhalt
unterscheiden sich von der Realität, wobei
zusätzlich zu berücksichtigen ist, dass mathematische
Modelle tatsächlich an die physikalische Wirklichkeit
sich nur annähern können.
Im Falle von Ermittlungen zu Risikoobergrenzen
sind Idealisierungen und Realität scharf zu trennen,
d.h. Modelle sind als solche zu kennzeichnen.
Auch scheinbar absurd kleine Werte sind zu prüfen.
Absurd ist eher, einen bestimmten logischen Arbeitsschritt
auszulassen, nämlich die Verknüpfung
von kleinen Gefahrenwahrscheinlichkeiten
mit ausserordentlich hohen Gütern;
d.h. hier, resultierende mögliche Auswirkungen mit einzubeziehen.
E. Johnson, A. Kent, T. Ord et al. tun dies konsequent.
Wenn man eine derartig erweiterte Bewertung nicht vornimmt,
wird auch die Ungewöhnlichkeit und Bedeutung der
HEP-Experimente nicht klar.
Deutlich wird:
Kleinste Wahrscheinlichkeiten sind nicht in jedem Fall
unbedenklich.
Auch eine Forderung nach einem echten Nullrisiko
macht dies deutlich –
eine solche Forderung ist aber lebensfern;
pragmatisch und lebensnah sind Schwellen-,
konsensfähige Akzeptanzwerte (Grenzrisikofestsetzungen).
Diese gilt es, mutig anzufassen.
…………………………..
An Solkar:
Eine Personalisierung der Debatte lehne ich strikt ab;
das wünsche ich mir für Diskutanten hier und insbesondere
für die Wissenschaftler
– für mich sollen allein Sachgründe zum Thema zählen.
(Sie haben überdies unsere Kommunikation bereits
beschädigt; ich frage mich, wieso Sie,
der erklärtermaßen mein Fragerecht negiert,
selbst noch Antworten
auf seine Fragen meinerseits erwarten kann;
nun, einigermaßen selbstbewusste Menschen werden
sich dies schon fragen dürfen. Vielleicht finden
Sie zu einer klaren gleichberechtigten Diskussion
zurück, wünsche ich mir.)
Zu Ihrer Frage:
Nichts ist so gut, dass es nicht noch
verbesserungsfähig ist – klar doch.
Herr Übbing,
ich hatte Sie nicht nach Ihrer Privatphilosophie befragt sondern nach Ihrer Bewertung Ihres eigenen Kommunikationsverhaltens.
Die Frage war genauso kurz und eindeutig formuliert gewesen wie meine vorgehende Frage nach Ihrer Bewertung der neuesten Agitationen Prof Rösslers.
Thema für Sie ist nun, jene Fragen genauso klar zu beantworten, wie jene gestellt worden sind.
Sehr geehrter Herr Uebbing,
ich wollte zwar eigentlich keine zweite Baustelle auftun, aber meinetwegen: Dr.Leggett erhält als Ergebnis, dass der CERN-Prozess nur 18% der Kriterien der „table 1“ erfüllt. Wieso sind Sie der Meinung, dass die in der „table 1“ genannten Kriterien zutreffend sind ?
Freundliche Grüsse, Ralf Kannenberg
Sehr geehrter Herr Uebbing,
ich bedauere, dass ich mich undeutlich ausgedrückt habe – das ganze ist ja auch erst in Erarbeitung. Deswegen möchte ich präzisieren: bei der These 1 geht es nicht darum, dass der Lehrer sich geirrt haben könnte, sondern dass das Resultat der Summe der natürlichen Zahlen 2 und 3 nicht 5 ergibt.
In diesem Kontext nun die Frage: Darf ein Lehrer nun in der Schule lehren, dass 2+3 hundertprozentig gleich 5 sei oder muss der Lehrer noch einen zusätzlichen Hinweis anbringen, dass möglicherweise ein anderes Resultat herauskommen könnte ?
Freundliche Grüsse, Ralf Kannenberg
Zu #1011 | ralfkannenberg | 25. Juli 2011, 17:25
Sicher kann in Ihrem Beispiel ein Lehrer das lehren – in der Schule gehören zunächst einfache Modelle, die dann
erst im Laufe der weiteren Ausbildung sich detaillieren –
bis hin zu einem Zweifel, den Jaffe, Busza, Sandweiss
und Wilczek eingeführt haben, wo man sich beruhigt
zurücklehnen kann, wenn man ein bestimmtes, denkbar kritisches Ereignis
lediglich auf sich selbst bezieht.
Ihr Beispiel ist idealisierend – Mathematik ist
manchmal auch als Geisteswissenschaft gesehen worden –
hier handelt es sich aber um die physikalische Realität –
nach Dr. Heuer haben wir zur Zeit nur 5 Prozent der
Naturkenntnis – vieles ist daher grundsätzlich möglich –
in der klaren Sprache der Mathematik aber nicht
(deswegen idealisierend, 2 + 3 bleibt 5). Ihr Beispiel hat ein
absurdes Merkmal, welches nicht logischerweise
auf die komplexe Realität übertragen werden kann –
die Absurdität besteht impliziterweise darin, die mathematische
Aussagen spiegeln letztlich komplett die Wirklichkeit wieder.
Tatsächlich kann man sich mit Mathematik sehr gut
ihr annähern, aber nur begrenzt.
Sehr geehrter Herr Uebbing,
ok, dann kommen wir – ehe wir die These 1 / Frage 1 abschliessend beantworten – schon zur These 2 / Frage 2.
Wir haben oben eine Situation gesehen, in der es ein mathematisches Restrisiko gab. Analog dazu lassen sich Begriffe wie physikalisches Restrisiko, ingenieurmässiges Restrisiko und verhaltensweisen-bezogenes Restrisiko definieren. Es geht nun nicht darum, diese 4 Begriffe genau zu definieren, vielmehr haben wir alle eine Vorstellung davon, um was es sich dabei handelt.
Nun also zur Frage 2: Gehen Sie mir mir einig, dass folgende Grössenrelation besteht:
mathematisches Restrisiko < physikalisches Restrisiko < ingenieurmässiges Restrisiko < verhaltensweisen-bezogenes Restrisiko ?
Freundliche Grüsse, Ralf Kannenberg
ad #1013:
Ich selber gehe natürlich nicht einig, da ich die Komplexität des Restrisikos nicht berücksichtigt habe. Ein hochkomplexer mathematischer Beweis, der noch keinem Fachreview unterzogen wurde, wird durchaus ein höheres Restrisiko aufweisen als ein einfacher über Jahrtausende bewährter physikalischer Sachverhalt.
Deswegen schlage ich vor, diese Restrisiken stillschweigend mit „in Basis-Komplexität“ ergänzen. Aber auch das löst keineswegs alle Probleme: die Gleichung 2+3=5 enthält 2 Argumente (streng genommen schreibt man das ADD(2,3) ) und ist somit komplexer als beispielsweise der Nachfolgeoperator, der nur ein Argument hat, z.B. successor(2) = 3. Andererseits hat die grosse Mehrheit der Menschheit diesen Begriff des Nachfolgeoperators noch nie gehört, während die Addition, zumindest diejenige, die man an den Fingern von zwei Händen abzählen kann, allgemeines Wissen darstellt. Eine optimiert minimierte Komplexität ist also nicht notwendig diejenige mit dem geringsten Irrtumspotenzial.
Aber das sind Details, die im Moment nicht weiter von Belang sind.
Freundliche Grüsse, Ralf
#1013 | ralfkannenberg | 25. Juli 2011, 18:08
Ihre interessante kettenartige Größenrelation
mit unterschiedlich bedingten Ursachen von Risiken
mag einem sehr gefallen;
mir scheint es hier auf den konkreten Einzelfall anzukommen.
Wenn ich diese Formen von Risiken auf die HEP-Experimente beziehe, würden
–
die ungeklärten mathematischen Fragen ggf.
in der Stringtheorie oder auch in der Hydrodynamik
eine Rolle spielen können – aber auch ggf.
die Mathermatik der Renormalisierung in der Quantenphysik;
–
physikalisch bedingte Ursachen für Ungewissheiten wären
im Bereich der Dunklen Materie und der Dunklen Energie
zu suchen, aber sicherlich auch schon am Beispiel des Higgs-Boson
oder bei „un k n o w n missing energy“ oder „missing mass“ zu erkennen;
–
ingenieurmäßig fehlerhafte technische Parametrisierungen können
zu bösen, kostspieligen Technikpannen beitragen oder aber auch
physikalische Versuchsbedingungen ungewollt beeinflussen oder
verfälschen;
–
verhaltensbedingte Fehler bei der Versuchsdurchführung
sind auch denkbar – z.B. Voreiligkeit.
Hier eine Hierarchie aufzustellen ist schwierig;
mich beeindruckt das von Dr. Heuer dargestellte
Verhältnis von Wissen zum Nichtwissen bei der Naturkenntnis,
etwa im Verhältnis 1 : 19 –
von dort sehe ich in der Physik tatsächliche Überraschungen
auf uns möglicherweise zukommen.
Dem kann entgegen gewirkt werden,
z.B. wenn ein kleines Rechenzentrum ständig die Distanz
zu befürchtbaren, kritischen physikalischen Parametrisierungen
auf Grund der neuesten, der aktuellsten Beobachtungsergebnisse ermittelt.
So könnte mit jedem LHC-Lauf
– nach entsprechend geeigneter Modellierung –
diese Distanz, z.B. im Falle einer Vakuuminstabilität,
in Form einer Risikoobergrenze umgerechnet werden
und somit ein Feedback für eine tolerable Energieerhöhung
bei Kollisionen abgeben.
Dies wäre ein technisch durchführbares Regulativ für HEP-Experimente,
um Überraschungskomponente zu minimieren
– dies ließe sich risikospezifisch bzgl. unterschiedlicher
Gefahrenverdachtstypen verfeinern und zu einem
probalistischen Gesamtwert (Obergrenze) zusammenführen.
Leider hat niemand aus der Teilchenphysik erfolgreich
eine realistische Grenzrisikofestsetzung zu einem Konsens gebracht.
Ein Nullrisiko – wie im Falle des LSAG von
dort gefordert und beschrieben – wird ohne deutliche Klarstellung
angesichts der dort beschriebenen Verhältnisse
bzgl. einer Vakuuminstabilität auf ein
Grenzrisiko mit einem Wert von 10**-31 (als tolerabel) angehoben,
womit eine vorhergehende Nullrisikoforderung
faktisch einkassiert wird oder aber
implizit der „bounded“ „probability“
von JBSW widersprochen wird –
was denn nun trifft zu ?
Uebbing,
fünf Kommentare heute von ihnen und jeder einzelne davon tangiert die notwendige Metadiskussion ihrer Beiträge. Nicht mehr erwähnen muss man Punkt
Nochmal meine Frage, was zum Teufel sie daran hindert, die deutsche Sprache so zu gebrauchen, dass daraus lesbare und diskutierbare Beiträge werden? Es ist eine Zumutung, sich durch den Auswurf ihres bullshit-Generator durchwursteln zu müssen!
entspricht den Punkten
und
entspricht zusätzlich zu den genannten Punkten
und
entspricht sehr schön Punkt
abruptes Themenhopping, Aufwärmen längst widerlegter Fakten, Behauptungen ohne Quellennennung. Zu Leggett hat Ralf sie breits das Nötige gefragt, hier nochmal die Tabelle 1 ihres „Experten“.
bezog sich in meiner Erwiderung auf ihren, den sie mit Nennung von Jaffee et al. nicht in wissenschaftliches Gold verwandeln können. Betrifft erneut die Punkte
und
tangiert neben den bereits genannten Punkten wieder einmal Punkt
wieder einmal die Punkte
präzise befolgt. Ihr ‚unvollständiges Wissen‘ ist unerheblich dafür, dass man Vakuuminstabilitäten ausschliessen kann.
Sehr schön, Uebbing. So ziemlich alle Punkte erfüllt. Ihre defizitären Pseudoannahmen als allgemeingültige Voraussetzung zu setzen ist richtig subversiv, zirkulär und alles andere als rational im Sinne von Wissenschaftlichkeit. Ihre ‚Ziegenpeterrechnung‘ ist der Witz des Monats!
Ich gratuliere! Sie haben es erneut geschafft, einen ganzen Tag lang lediglich mit eigenen und soufflierten Irrationalismen zu agitieren. Wie strategisch sie dabei vorgehen, sieht man abschliessend an zwei Beispielen:
Selektives Zitieren, um in diesem Fall Heuer zu instrumentalisieren. Im Original steht auch noch folgendes:
Erkennen sie die entscheidende Qualität? Oder wollen sie die ignorieren? Mit der DM und DE haben sie’s ja nicht so. Da gehen sie eh lieber zum Alchemisten.
Und noch ein schönes Beispiel für einen Strohmann:
Wie sie hier einen Widerspruch konstruieren, der sich sich aus den Quellen nicht ergibt, ist wirklich entlarvend. Und so macht es ihr ganzer Verein seit drei Jahren. Wer so unredlich vorgeht, und gleichzeitig anerkannte Wissenschaftlerinnen und Wissenschaftler diffamiert, der muss sich aber garantiert auf Widerspruch einstellen.
galileo2609
Uebbing,
Ralf gibt sich, wie sie sehen, gerade viel Mühe, sie an die Hand zu nehmen, damit sie rationales Argumentieren erlernen. Ich respektiere seinen Versuch und würde ihm daher gerne die Federführung der weiteren Diskussion überantworten. Das fiele mir leichter, wenn sie dieses Experiment nicht weiter durch ihr Verhalten stören würden, das ich in der Metadiskussion unter vorläufig zehn Punkten ständig beanstanden muss.
Ich werde ihre weiteren Kommentare sehr genau beobachten. Und ich bin neugierig, ob sie soviel Anstand haben, Ralfs Diskussionspunkte adäquat anzunehmen.
galileo2609
An Galileo2609:
Lassen Sie uns weiter an den Abbau von „Feindbildern“
arbeiten – wie gab es desöfteren zu hören:
Wissenschaft ist Freundschaft.
Das ist eine wahrhaft gute Maxime.
Was bleibt denn übrig als eine „Metadiskussion“, wenn man
auf Sachargumente nicht mehr recht antworten kann ?
Eine Frage, die sich mir hier aufdrängt.
Anstelle einer Sachdiskussion gibt es auf einmal
Persönlichkeitsbilder oder dergleichen.
Man kann auf falsche Argumente durchaus
mit richtigen Begründungen – auch wiederholt –
reagieren; das wäre im Sinne einer Überzeugungsarbeit
schon gut. Irgendwann wird schon der Groschen fallen,
wie man so sagt. Unter vernünftigen Menschen
ist ein Konsens garantiert.
Nun, Sachargumente mit Sachargumenten zu kontern – dies
wäre schon ein überzeugender Weg.
Die „Wahrheit“ wird durch Wiederholung immerhin
bewusster; Unzutreffendes wird durch Wiederholung
nie wahr. Binsenweisheiten, die durchaus beachtenswert
sind.
Großartig wäre gewesen, hätte hier jemand
meinen Faden aufgegriffen und die Schweizer sowie
die englischen Bestimmungen ermittelt, die
in diesen Ländern Grenzrisikofestlegungen
regulieren – hier ließe sich ein weiterer Maßstab
zusätzlich zu den niederländischen Regelungen
für die Wertigkeit kleinster Risiken bei höchstem
Einsatz untersuchen und diskutieren.
Dies ist grundsätzlich ein Teil der LHC-Diskussion,
der kaum von CERN angesprochen wird,
den wir aber bei anderen Autoren
(A.KENT, E. JOHNSON, T.ORD et al.) nachlesen
können. – Mein Eindruck ist, die
Bedeutung der HEP-Experimente wird derzeit noch
unterschätzt.
Uebbing,
wie ich ihrem Kommentar entnehme, sind sie nicht bereit, ihre Defizite zu beheben. Nicht, dass ich anderes erwartet hätte.
galileo2609
Zu #1010 | ralfkannenberg | 25. Juli 2011, 17:20
Zitat:
„Dr.Leggett erhält als Ergebnis, dass der CERN-Prozess nur 18% der Kriterien der “table 1″ erfüllt. Wieso sind Sie der Meinung, dass die in der “table 1″ genannten Kriterien zutreffend sind ?“
Eine kurze Antwort:
Dr. Leggett markiert eine methodische Schwäche
in der LSAG-Dokumentation:
„Component of risk assessment method :
‚fault‘ or ‚event‘ trees.”
The PSA process … (author’s note – including fault
trees) has the benefit
that it ensures a systematic process of
examination of the design and its risks.
Fault trees not used, so it is hard to discern if
there are gaps in the risk assessment.“
Ausserdem beanstandet Dr. Leggett gewisse
Einseitigkeiten im LSAG-Prozess, wie auch der Autor
E. Johnson. Dieser Prozess der Erstellung des LSAG-Reportes
wird aus einigen Standpunkten heraus
als nicht zeitgemäß bezeichnet (Beispiel: ein methodischer
Punkt sh.o.).
Dr. Mark Leggett bemängelt dabei auch
einen Interessenskonflikt beim CERN Council.
Ich kann nicht erkennen, dass diese Kriterien falsch sind.
Wie ich finde, gehört eine Risikobeurteilung der
vorliegenden Bedeutung federführend in die
Hände eines Risikoforschungsinstitutes, wo Physiker
dann ihre Erkenntnisse einbringen können –
bei einem derartigen Institut ist die konzentrierte methodische Fachkompetenz in Risikoangelegenheiten unzweifelhaft am
besten gegeben.
Diese Kompetenz sollte in einem Fall – wie hier diskutiert – eben nicht brach liegen bleiben, sondern es gilt, sie gezielt zu nutzen.
Uebbing,
ihren letzten Kommentar habe ich zurückgestellt. Offenbar kann man sie nur durch Zwangsmassnahmen einigermassen in die Spur bringen. Ellenlange, längst widerlegte Ausführungen zum Unsinn von Mark Leggett sind gerade nicht das Thema. Schreiben sie es sich einfach hinter die Ohren: Aussitzen, ignorieren, Themenhopping sind keine Mittel rationaler Kommunikation.
Wenn sie es noch deutlicher brauchen, öle ich schon mal die Dachlatte.
galileo2609
An Galileo2609:
Für mich ist hier erkennbar, je präziser
und fundierter die Beschreibungen zu
offensichtlichen Mängel am LSAG-Report 2008
werden, desto persönlicher und sachfremder
werden hier bestimmte Antworten.
Wiederholen Sie doch einfach einen
Gegengrund – sachlich zum Thema;
das könnte überzeugen.
Hier möchte ich noch ergänzen:
Ich habe die Bitte an den
Webseitenverantwortlichen gerichtet,
den ausgeblendeten Kommentar
#1020 | Rudolf Uebbing | 26. Juli 2011, 00:12
wieder freizuschalten.
Es ist zum Totlachen. Präzise und fundiert ist das krasse Gegenteil von dem was Sie hier unqualifiziert in die Welt pusten.
Sie haben nicht mal kapiert, und das nach vielen Hilfestellungen, was Jaffe et al wirklich aussagen. Das zeigt nicht zuletzte Ihre letzte Einlassung zur angeblich angehobenen Grenze beim LHC. Sie haben bis heute nicht kapiert, dass Sie es sind, der jenen Schlussfolgerungen widerspricht. Nur mal als Beispiel, die Datenbasis dafür, dass Rudolf Uebbing die Welt gerade vernichtet, ist deutlich geringer als dafür, dass Kollisionen von hochenergetischen Teilchen das Vakuum zerstört (die besagten 10**47 im Vergangenheitslichtkegel). Nach Jaffe et al müssten Sie sich eigentlich sofort aus dem Fenster stürzen, um die Welt zu retten.
Insofern hat Galileo2609 völlig recht mit seinem sachlichen Kommentar, dass Ihre Einlassungen zum Vakuum („Frontalitäten“ etc) völlig schrottigen Unfug darstellen. Sachlicher kann man das schlicht nicht mehr ausdrücken.
Und es ist schon lange angebracht, Ihre unlesbaren Bandwurmbeiträge einmal zu thematisieren. Irgendwann hat auch der geduldigste Leser schlicht die Nase voll von Ihren unpräzisen, unscharfen, physikalisch unsinnigen und gleichzeitig unendlich aufgeblasenen, in unerträglichem Beamtendeutsch verfassten „Beiträgen“. Ihre perfide Praxis, selektiv zu zitieren, unqualifizierte Wörterpickerei in den Status von Fakten zu erheben hat schon lange keinen Bezug mehr zu so etwas wie einer Sachdiskussion.
„die Datenbasis dafür, dass Rudolf Uebbing die Welt gerade vernichtet“
Muss natürlich heißen:
Die Datenbasis dafür, das Rudolf Uebbing die Welt nicht vernichtet durch irgendeine seiner täglichen Handlungen, […].
Nein bloss nicht: neben der menschlichen Tragik wäre das Risiko, dass dabei die Welt zerstört wird, viel zu hoch !
Hallo Hans,
in meiner These 2 / Frage 2 wage ich einen Versuch, dies zunächst zu qualifizieren und in einem detaillierteren Schritt dann auch zu quantifizieren.
Freundliche Grüsse, Ralf
Sie sagen es, Herr Kannenberg. In unserem Vergangenheitslichkegel kam dergleichen viel zu selten vor, um qualifiziert ausschließen zu können, dass Uebbing dabei das Universum vernichten könnte.
Ich kann übrigens auch nicht wirklich hoffen, dass jetzt der Groschen bei ihm fällt. Denn das kam bisher in der Geschichte des Universums noch gar nicht vor.
Ungeahnte Risiken könnten in einem solchen Ereignis stecken!!
Sehr geehrter Herr Uebbing,
Ihr im Beitrag von 25. Juli 2011, 20:29 Uhr genannter Einwand ist berechtigt. Aus diesem Grunde habe ich in meiner noch besser auszuformulierenden These 2 / Frage 2 stillschweigend den Zusatz „in Basis-Komplexität“ zugefügt. Wegen der Unterscheidung in minimale Komplexität und optimale Verständlichkeit möge dieser Zusatz bitte geändert werden zu „in geeignter Basis-Komplexität“. Wie gesagt: Ich finde es wichtig, dass wir solche Einwände frühzeitig erkennen und domumentieren, es macht aber keinen Sinn, auf dieser frühen Stufe schon alle Details herausarbeiten zu wollen.
Des weiteren schlage ich vor, dass wir uns bezüglich der Diskussion dieser Thesen / Fragen jeweils nur dieses Thema in einen Beitrag verpacken und nicht zahlreiche Extra-Themen, da es sonst nur unnötig unübersichtlich wird. Die anderen Überlegungen kann man ja problemlos in einen eigenen Beitrag auslagern.
Freundliche Grüsse, Ralf Kannenberg
Sehr geehrter Herr Uebbing,
ich schlage vor, dass wir uns diese Thematik vorgängig bilateral zusammen anschauen, ehe wir eine noch vorläufige Erörterung in der Öffentlichkeit tätigen.
Freundliche Grüsse, Ralf Kannenberg
Rudolf Uebbing schrieb am 26. Juli 2011 um 10:20
Herr Übbing,
„präzise und fundiert“ vorzugehen beinhaltetete nicht nur Zahlen vorzulesen, sondern auch, diese Zahlen in den richtigen Kontext zu setzen.
Letzteres wollen oder können Sie aber nicht leisten, somit ist Ihre Rezeption hier ein Teil des Problems und genau deshalb kommt es
Rudolf Uebbing schrieb am 26. Juli 2011 um 10:20
hierzu.
Falls Sie das wirklich ändern wollten, so würden Sie zunächst Ihr eigenes Verhalten ändern.
Was ja, angesichts der „existentiellen“ Bedeutung, die Sie dieser Diskussion beimessen, eigentlich ein geringer Preis wäre.
Grüsse,
S.
Eine Antwort auf die von Herrn Kannenberg
gestellte Frage (zu Dr. Mark Leggetts Kritik
am LSAG-Prozess) wurde hier bedauerlicherweise
heute früh von der AC-Administration aus der
Bildschirmansicht herausgenommen.
Ich habe mir daher erlaubt, nachdem mir die
Textkomplettlöschung aufgefallen war, auf der
Webseite der LHC-Kritik (lhc-concern.info), dort im LHC NEWS BLOG,
nochmal zu antworten. Wer mag, kann dort nachlesen.
Auch wird die Meinung eines bundesdeutschen
Verwaltungsgerichtes zu einer Sicherheitskonferenz
aus einem Protokoll einer öffentlichen Sitzung
der 13. Kammer des Kölner Gerichts dort wiedergegeben
werden; diese Meinung hat leider bislang zu wenig
Beachtung gefunden hat.
Für die Meinung es Gerichts ist lediglich dessen Beschlussfassung massgeblich.
Und bezogen auf jene haben Sie auf ganzer Linie versagt. Kein Wunder, wenn man schon den wissenschaftlichen Hochstapler Otto Rössler als Zeugen aufbieten muss.
Sehr geehrter Herr Uebbing,
ich bitte um Nachsicht, dass ich in dem von Ihnen genannten Blog keine Beiträge zu verfassen bereit bin. Deswegen zusätzlich zu meinen Ausführungen im AC vor gut 1 Jahr (evtl. schon länger her) noch ein paar Ergänzungen:
1. Sie schreiben:
„‘fault’ or ‘event’ trees.”“
Dazu ist zu sagen, dass Sie in jedem Risikoanalyse-Buch nachlesen können, dass dies bei komplexeren Fragestellungen gar nicht möglich ist. Hier werden dann also Vereinfachungen gemacht, mit dem Ziel, wenigstens „einige“ Risiken zu identifizieren.
Da ist der Methodik der direkten Nachrechnung mit grösser/kleiner Abschätzungen sowie Fallunterscheidungen (z.B. nach Extradimensionen und warped/unwarped) weitaus aussagekräftiger und sowohl die Arbeit von G&M als auch das Zweitgutachten von Koch/Bleicher/Stöcker verwenden solche Fallunterscheidungen.
Somit ist diese Forderung Dr.Leggetts schlicht und ergreifend Unfug und seine „Wertung“ – es fällt mir schwer, dies ohne Anfürhungsstriche zu schreiben – entsprechend masslos übertrieben.
In einer klassischen Risikoanalyse natürlich, ja – da wäre die Vorgehensweise von Dr.Leggett richtig. Eine solche macht aber in meinem 4-Stufen-Modell (These 2) erst ab Stufe 3 Sinn, weil man in den Stufen 1 und 2 bessere Methoden zur Verfügung hat.
2. Sie zitieren:
“Fault trees not used, so it is hard to discern if there are gaps in the risk assessment.”
Das stimmt natürlich, aber eben nur im Falle von Risikoanalysen. Wenn man Fallunterscheidungen macht, wie das in den beiden Sicherheitsanalysen gemacht wurde, ist es sehr einfach, „gaps“ zu eruieren, da man statisch überprüfen kann, ob alle Fälle abgedeckt sind.
3. Sie schreiben:
„Ausserdem beanstandet Dr. Leggett gewisse Einseitigkeiten im LSAG-Prozess, wie auch der Autor E. Johnson.“
Könnten Sie mir hierzu bitte je ein (oder mehrere) Beispiele nennen ?
4. Sie schreiben:
„Dieser Prozess der Erstellung des LSAG-Reportes wird aus einigen Standpunkten heraus als nicht zeitgemäß bezeichnet (Beispiel: ein methodischer Punkt sh.o.).“
Das kann ich so nicht beurteilen; wenn Sie sich auf obiges beziehen, so habe ich mich dazu bereits geäussert. Ansonsten benötioge ich auch hierzu ein Beispiel, um mir das näher anschauen zu können.
5. Sie schreiben:
„Dr. Mark Leggett bemängelt dabei auch einen Interessenskonflikt beim CERN Council.“
Der Interessenskonflikt ist ein beliebtes Argument. Geht aber in Richtung Verschwörungstheorie und wird spätestens beim Peer Review (solange das nicht eine Alibi-Übung ist) aufgedeckt.
6. Sie schreiben:
„Ich kann nicht erkennen, dass diese Kriterien falsch sind.“
Sagen wir es einmal so: Sie sind zumindest viel zu hoch gewichtet. Ein Restrisiko will ich diesen Dingen ja durchaus zugestehen; hier wird dann die These 4 greifen.
7. Sie schreiben:
„vorliegenden Bedeutung federführend in die Hände eines Risikoforschungsinstitutes“
Grundsätzlich eine gute Idee, aber das Risikoforschungsinstitutes müsste vorgängig noch zertifiziert werden, dass die auch über die benötigte Kompetenz verfügen. Wer die Arbeit von Ord et al. freigibt, verfügt übrigens nicht über diese benötigte Kompetenz.
Freundliche Grüsse, Ralf Kannenberg
Sehr geehrter Herr Uebbing,
ich möchte nun nach diesem Exkurs gerne meine Thesen weiter erarbeiten; insbesondere habe ich nun Ihre Einwände eingefügt. Wo stehen wir ?
These 1: elementare mathematische Restrisiken wie add(2,3) = 5 oder succ(2) = 3 haben einen Wert echt grösser als 0. Es ist aber irreführend, auszusagen, dass keine 100%-ige Sicherheit bezüglich des Ergebnisses vorliegen würde.
Gehen Sie hier einig oder möchten Sie noch eine Ergänzung anbringen ?
These 2: Völlig analog zur These 1 kann man neben einem mathematischen Restrisiko weitere Restrisiken definieren: physikalisches Restrisiko, ingenieurmässiges Restrisiko und verhaltensweisen-bezogenes Restrisiko. Diese jeweils in „entsprechener Basis-Komplexität“. Sei ersteres „Restrisiko Stufe 1“ genannt, zweiteres „Restrisiko Stufe 2“, entsprechend auch Stufe 3 und Stufe 4. Zu einem späteren Zeitpunkt wird es sich möglicherweise als zweckmässig erweisen, hier weitere Stufen einzuführen.
Diese Stufen sind zunächst einmal nur vage definiert; dennoch lässt sich hier eine Grössenrelation bilden. Gehen Sie mit mir einig, dass folgende Grössenrelation besteht:
Restrisiko Stufe 1 (mathematisch) < Restrisiko Stufe 2 (physikalisch) < Restrisiko Stufe 3 (ingenieurmässig) < Restrisiko Stufe 4 (verhaltensweisen-bezogen) ?
Gibt es bis hierher noch Fragen oder können wir mit These 3 / Frage 3 weiterfahren ?
Freundliche Grüsse, Ralf Kannenberg
Nochmal hier Grundsätzliches:
Hier greife ich ein Detail heraus –
den Vorwurf der „Pseudopräzision“ –
dieser ist tatsächlich anzuwenden auf die Aussage des
Physikers Don Lincoln, der sagt,
die LHC-Risiken wären „exakt Null“ u n d auch
auf eine Sprachregelung zum Risikowert am CERN
„not to say very small“, but „zero“.
(Das bedeutet, eine Risikoobergrenze machte logisch
keinen Sinn, ist entbehrlich – denn die CERN-Sicherheitsbeurteilung
weist bereits eine absolut vollständige Sicherheit nach –
welcher einigermaßen wissenschaftlich vorgebildete Mensch kann
dies ernsthaft nachvollziehen ? )
Nun, dass ein Nullrisiko von unzweifelhafter, seriöser
und wissenschaftlicher Seite nicht ausgeschlossen
wurde, ist e i n d e u t i g dokumentiert (sh. o. –
Zitat von Jaffe, Busza, Sandweiss, Wilczek).
Nun, mein Anliegen ist, hier
zu einer strengen, konsensfähigen Wissenschaftlichkeit
zurückzufinden.
Das heißt, ganz einfach realistisch zu sein,
sich zu der Wirklichkeit zu bekennen;
das heißt auch, unvollständiges Wissen als
Faktum anzuerkennen und vor allen Dingen
heißt dies hier konkret, einige wichtige Verlässlichkeitsangaben
aufzugreifen und auszuwerten – Fehlanzeige
im Falle des LSAG-Reportes 2008.
Nur so kann ein p e r f e k t e s Sicherheitsresultat am
Ende einer wissenschaftlichen Analyse stehen,
die wegen einiger Auslassungen tatsächlich Kritik verdient.
Sehr geehrter Herr Kannenberg,
seien Sie bitte gewiss – meine
Antworten auf ihre zahlreichen Fragestellungen sollen erfolgen –
auch wenn Jaffe, Busza, Sandweiss
und Wilczek ein Nullrisiko lediglich nicht ausschließen
und realistischerweise
z u s ä t z l i c h ein Risiko für einen älteren Collider
mit einer konkret bezifferten Wahrscheinlichgrenze
nach oben begrenzen –
was im scharfen Gegensatz zu Don Lincolns Aussage
von „exakt Null“ steht. – Wie kann man das vernünftigerweise
übersehen ?
Zu Ihrer These 1:
a) Wie oft haben Sie Ihren Text zur These 1 durchgelesen,
um z.B. einen Tippfehler noch auszumerzen – d.h. genau
j e t z t, wie sicher sind Sie, dass Ihre Gesamtaussage
These 1 korrekt formuliert ist ?
b) Das mathematische Beispiel enthält Aussagen
aus einer idealisierten Gedankenwelt, die definitionstypisch
bereits richtige Aussagen enthält. Deswegen ist
dies für die physikalische Wirklichkeit kein geeignetes
Beispiel – vielleicht suchen Sie sich einen anderen
Vergleich aus der Realität (nicht aus Gedankenkonstruktionen
wie die Mathematik).
Ich schlage daher einmal etwas
anderes vor (also nicht 2 + 3 = 5):
Lassen Sie uns beispielsweise besser diskutieren: „Der Mond existiert.“ Wahrscheinlichkeit 1 (gerundet). Nachdem demnächst ein größerer
Komet ihn aus der Erdumlaufbahn katapultiert hat (möglich),
existiert er nicht mal als Mond, sondern als Planetoid / Planet. Übrigens: Existiert der Mond erst
dann, wenn ein Beobachter den Mond auf seiner Netzhaus
registriert ??
Mit freundlichen Grüssen
Rudolf Uebbing
Entschuldigung: 4. letzte Zeile v.u. – Berichtigung: „Netzhaut“ (ohne ’s‘ am Ende)
Zu #1036 | ralfkannenberg | 26. Juli 2011, 18:22
Nochmal zu Ihrer These 1:
Für ein rein mathematisch orientiertes Beispiel wäre
zu der Korrektheit des Additionsergebnis es nicht nachvollziehbar,
nicht von 100-prozentiger Sicherheit des Ergebnisses
zu sprechen; eine mögliche Irreführung wäre anderenfalls
denkbar.
Grund: Mathematische Definitionen wirken
hier bei der Addtion mit hinein und sind mitzuberücksichtigen.
Stimme somit diesbezüglich zu,
wenn keine falschen Schlussfolgerungen zusätzlich
angehangen werden (dies war der Sinn meines vorherigen
Beitrages, Nr. 1038 oben).
Uebbing, es ist unbegreiflich, dass Sie bis heute nicht mal den Versuch gewagt haben, inhaltlich nachzuvollziehen, was Jaffe et al wirklich geschrieben haben.
Da helfen offenbar nicht einmal drastische Hilfestellungen wie heute nachmittag von mir gegeben.
Festzuhalten ist abschließend, dass sinnfreies Zitieren unverstandener Passagen keinesfalls im Range präziser physikalisch qualiffizierter Argumentationen steht. Weiterhin wurde diese physikalische Substanzlosigkeit, um auf Ihr ablenkendes Themenhopping heute nachmittag zurückzukommen, bereits von mindestens zwei Gerichten in Deutschland ebenfalls ausdrüklich festgestellt.
Vom rechlichen Standpunkt aus wäre es demnach durchaus nicht unangemessen, Sie einen physikalischen Vollpfosten zu nennen.
Übrigens, noch einmal zum Gericht, dieses hatte auch ausdrüklich festgehalten, das Gerichte nicht zuständig sind, wenn es um physikalische Diskussionen geht.
Deshalb: Warum bringen Sie das hier ein?
Zu #1036 | ralfkannenberg | 26. Juli 2011, 18:22
Zu Ihrer These 2 (Größenvergleiche der Werte unterschiedlich
bedingter Risiken):
Ich bezweifle, dass im Rahmen einer praktischen
Anwendung diese Kettenungleichung / Größenrelation
sich bestätigen wird – dies scheint mir alles sehr
vom Einzelfall abhängig zu sein.
Wir wissen, z.B. dass ein mathematisch falscher
Wert einer Umrechnungsgröße zum Scheitern einer
Marsmission geführt hat – Menschen stehen oft genug am
Anfang einer Fehler verursachenden Ereigniskette;
da werden unterschiedliche Zuordnungen zu diskutieren sein,
ehe man sich für eine bestimmte Zuordnung entscheidet.
Hier stimme ich Ihnen mithin nicht zu, es sei denn,
im Detail würden genau festgelegte Regularien
vereinbart (- wer will j e t z t diesen Aufwand betreiben ?).
Sehr geehrter Herr Uebbing,
ich sehe, dass Sie sich schon ausgiebig Gedanken gemacht haben; ich werde mir Ihre Einwände ausdrucken und heute abend näher anschauen.
Dennoch sei mir, um nicht unnötig Zeit zu verlieren, erlaubt, schon jetzt auch die These 3 / Frage 3 formulieren:
Gehen Sie mit mir einig, dass jede der Risiko-Stufen aus These 2 eigene geeignete Methoden benötigt, um Gefahren zu bestimmen ? Beispielsweise Stufen mit niedriger Komplexität wie Stufe 1 und 2 durch direktes Nachrechnen, Stufen mit höherer Komplexität wie Stufe 3 und 4 durch geeignete Simulationen oder Risikoanalysen. Wobei es mir zum jetzigen Entwurfs-Zeitpunkt noch nicht darum geht, die adäquaten Methoden zur Bestimmung der Gefahren im Detail zu eruieren, sondern es geht mir nur um Ihr grundsätzliches Einverständnis.
Freundliche Grüsse, Ralf Kannenberg
Da Ralf heute auf den zurückgestellten Kommentar geantwortet hat, steht er nun auch hier wieder online.
Hallo Galileo,
es wäre mir persönlich lieber, diese Baustelle zu einem späteren Zeitpunkt näher zu erörtern, zumal sie uns vom hier eingeschlagenen Weg eher ablenkt. Ich bin übrigens davon überzeugt, dass sich nach Abschluss des hier eingeschlagenen Weges eine erneute Betrachtung der Arbeit von Dr.Leggett erübrigt.
Freundliche Grüsse, Ralf
Sehr geehrter Herr Uebbing,
es geht eigentlich nicht darum, ob meine These 1 noch Tippfehler enthält – zumal ich mehrfach betont habe, dass sich das ganze noch in Erarbeitung befindet, sondern es geht darum, festzuhalten, ob ein mathematisches Restrisiko, welches bekanntlich echt grösser als 0 ist, Anlass zur Formulierung gibt, es liege keine 100%-ige Sicherheit vor, oder ob eine solche Formulierung als irreführend klassiert werden muss.
Dass das mathematisches Restrisiko echt grösser als 0 ist lässt sich übrigens einfach beweisen, da die Anzahl Menschen auf der Welt, die jemals gelebt haben, endlich ist, diese aufgrund ihrer endlichen Lebenszeit nur endlich viele Gedanken formuliert haben können und jeder dieser Gedanken eine Irrtumstumswahrscheinlichkeit echt grösser als 0 aufweist. Somit haben wir ein endliches Produkt echt positiver Zahlen und dieses ist bekanntlich ebenfalls echt grösser als 0.
Freundliche Grüsse, Ralf Kannenberg
Sehr geehrter Herr Uebbing,
diese Feststellung von Ihnen findet meine vollumfängliche Zustimmung und im Rahmen meiner These 2 heisst Ihre Äusserung ganz konkret, dass ein Restrisiko der Stufe 1 („mathematisch“) kleiner ist als ein Restrisiko der Stufe 2 („physikalisch“).
Das ist nun ein typisches Beispiel, wi eman durch offene Diskussion und ebenso offenes Mitteilen seine Ansichten einander annähern kann.
Ich habe mir Gedanken über solche philosophischen Fragestellungen gemacht und auch hier versucht, sie irgendwie einzuordnen; ich muss einräumen, dass mir das bislang noch nicht so recht gelungen ist. Da es sich aber um eine Existenzfrage handelt, tendiere ich dazu, dies zwischen Stufe 1 und 2 anzusiedeln. Vielleicht muss man auch die Stufe 2 feiner granulieren, dann würde diese Fragestellung vermutlich zwischen Stufe 1 und 2b anzusiedeln sein.
Freundliche Grüsse, Ralf Kannenberg
Sehr geehrter Herr Uebbing,
prima, dann herrscht über These 1 Konsens. – Sollte sich aus irgendeinem Grunde wie von Ihnen befürchtet
ergeben, müssen wir diesen Punkt dann nochmals geeignet nachbessern, das ist ja kein Problem.
Sie schreiben, dass diese Ungleichungskette der These 2 sehr vom Einzelfall abhängig zu sein scheint. Dem ist zuzustimmen, deswegen habe ich ja durch den Zusatz „in entsprechener Basis-Komplexität“ eine gewisse Normierung eingebracht.
Danke für diesen guten Einwand ! Das zeigt einmal mehr, wie wichtig es ist, sich mit diesen Stufen vertraut zu machen. Was Sie ansprechen ist nicht mehr Stufe 1 („mathematisch“) oder Stufe 2 („physikalisch“), sondern bereits Stufe 3 „ingenieurmässig“. Die Mathematik dahinter ist ebenso wie die Physik hinter der Marsmission unbestritten, aber bei der ingenieurmässigen Auslegung ist ein Fehler aufgetreten.
Freundliche Grüsse, Ralf Kannenberg