Otto E. Rössler – Anthologie eines Welträtsellösers
Otto E. Rössler reibt sich nun bereits seit Jahren an den Institutionen der akademischen Wissenschaft. Neben bizarren Aktionen setzt der wissenschaftliche Aussenseiter und Mentor des LHC-Widerstands über Dekaden hinweg auch auf eine Welterklärung, die mit skurrilen „Theorien“ die Wissenschaft umkrempeln soll. RelativKritisch hatte dem Tübinger Mediziner angeboten, seine grenzwertigen Texte kommentiert zu veröffentlichen, wenn er keine anderen Möglichkeiten mehr hat. Otto E. Rössler hat dieses Angebot jetzt zum ersten Mal genutzt.
RelativKritisch stellt mit dieser speziellen „Anthologie eines Welträtsellösers“, Otto E. Rössler einen Platz für eine Veröffentlichung seiner Texte und der freien Diskussion dazu unzensurierten Raum zur freien Verfügung. Dabei sind lediglich die allgemeinen rechtlichen Pflichten des Betreibers des Portal RelativKritisch und die von ihm übergreifend erstellten Nutzungsbedingungen zu beachten. Die Redaktion von RelativKritisch behält sich im Rahmen dieser Voraussetzungen Moderationsmassnahmen vor.
Otto E. Rössler hat einen ersten Beitrag und dessen eigene englische Übersetzung auf RelativKritisch veröffentlicht. Seinen Text „Fröhliche Wissenschaft mit lachend in Kauf genommener nicht unwahrscheinlicher Todesfolge für alle“ und die ersten Kommentare dazu veröffentlichen wir nachstehend.
- Diskutiere über Otto E. Rössler und seine „Anthologie eines Welträtsellösers“ auch im Forum Alpha Centauri!
RelativKritisch E-Edition
Als ePub herunterladen 1998Die Artikel von RelativKritisch gibt es auch als E-Book im ePub-Format zum kostenlosen Download!
Ähnliche Beiträge
Kommentare sind geschlossen.
An Hans:
Sehr froh wäre ich, wenn Sie sich der strengen
wissenschaftlichen Betrachtungsweise von Jaffe,
Busza, Sandweiss, Wilczek einfach anschließen könnten.
Ja, aber nur wenn es Ihnen opportun erscheint. Sie sind da ganz klar von Interessen getrieben. Sonst würden Sie nicht so lapidar über Thesen wie „Rudolf Uebbings Augenzwinkern ist gefährlich“ hinweg gehen.
Übrigens ist das in der Vergangenheit sicherlich seltener vorgekommen, als hochenergetische Teilchenkollisionen. Die Unsicherheit ist bzgl Ihrer Existenz deutlich größer. Und das im Prinzip nach Jaffe. Und nun? (Und kommen Sie nicht damit, dabei würden keine Teilchen kollidiert, Einerseits sind die schon aus dem Spiel, siehe Universumsvergangenheit, andererseits kann ich bei Zugrundelegung wissenschaftlicher Standards wie sie von Otto E. Rössler praktiziert werden mit Leichtigkeit irgendeine schwachsinnige Theorie aus dem Hut zaubern, die genau das vorhersagt. Mit Berufung auf Einstein, Heisenberg, Gödel und sonstwen. Da Sie solches ja bereits bei Rössler akzeptieren, können Sie es nicht aus Gründen der Opportunität jetzt ablehnen. )
Wissen Sie, so einige hier wären froh, wenn Sie einmal inhaltlich verstehen würden, was dort steht. Hilfestellungen gab es jetzt genug.
Ihre Interpretation führt zwangsweise zur Untersuchung, ob das Universum überhaupt noch sicher genug sei.
Ich sehe gerade, dass Herr Kannenberg Ihnen das noch einmal genau erklärt hat. Wenn Sie es jetzt immer noch nicht kapiert habem, ist Ihnen wirklich nichtmehr zu helfen.
Entweder sind Sie dann zu dumm. oder Sie wollen nur agitieren und die Zahl von Jaffe kommt Ihnen da gerade recht.
Und ähnliches gilt auch für die Stabilität der Elementarteilchen, Naturgesetze wie die Gravitation und so weiter.
Wenn die Möglichkeiten, dass solche Prozesse in der zukunft vielleicht doch noch stattfinden könnten, ernsthaft für irgendetwas herangezogen werden sollen hier auf der Erde, dann begehen wir besser alle sofort kollektiven Selbstmord. Das Universum wäre dann schlicht zu gefährlich.
An Hans:
Zur Erläuterung nochmal das sachlich nicht zutreffende Zitat:
„Die Wahrscheinlichkeit, dass eine der vergangenen CR-Kollisionen eine Vakuuminstabilität ausgelöst hat, ist also exakt 0%;
die Wahrscheinlichkeit, dass eine davon eine CR-Kollision eine Vakuuminstabilität auslösen kann, ist kleiner als 1:10**47.“
Ich zerlege das Zitat in zwei Teile:
Hier zunächst Teil 2:
„… die Wahrscheinlichkeit, dass eine davon eine CR-Kollision eine Vakuuminstabilität auslösen kann, ist kleiner als 1:10**47.“
Dies ist streng wissenschaftlich zutreffend; d.h. derzeit
kann Teil 2 nicht widerlegt werden.
Teil 1 (die Aussage ist inhaltlich falsch):
„Die Wahrscheinlichkeit, dass eine der vergangenen CR-Kollisionen eine Vakuuminstabilität ausgelöst hat, ist also exakt 0%; …“
Tatsache ist, dass die Beobachtung den Wert exakt Null
ergibt; hier aber auf eine beliebig genauen Wert einer
Wahrscheinlichkeit zu schließen – dies ist wissenschaftlich
f a l s c h. Bitte, überlegen Sie, warum.
Grund – Klarmachung durch eine Analogie:
Ich werfe z.B. zehnmal einen Würfel – es erschien
keine „6“; in derselben Schlussfolgerungsqualität
(wie oben in Teil 1 erlebbar)
wäre jetzt die Konsequenz zu sagen:
Die Wahrscheinlichkeit eine „6“ zu würfeln ist Null –
so einfach kann man sich die tatsächliche Fehlerhaftigkeit der
Aussage im Zitat Teil 1 überlegen.
………………………………………………………..
Hier möchte ich noch ergänzen mitteilen,
wie ich strenge Wissenschaftlichkeit sehe:
Dies heißt für mich u.a.:
a) Sich grundsätzlich zu einer Irrtumsfähigkeit zu bekennen
b) Irrtumspotenziale genauestens und gewissenhaft auszuloten
Wie sehen Sie dies, bitte ?
Sie vergessen einen weiteren Fall. Nämlich einen Würfel, der erst gar keine 6 enthält.
Analog wäre das die physikalische Unmöglichkeit, dass hochenergetische Teilchenkollisionen das Vakkum verändern. Ein Naturgesetz eben.
An die Möglichkeit konnten Sie allerdings nicht denken. Würder der Agitation entgegenlaufen.
Wenn Sie jetzt sagen, alles unsicher, ok. Dann ist aber auch g e n a u s o unsicher, dass die Sonne morgen noch da ist. Das Elementarteilchen nicht morgen anfangen zu zerfallen. ETC.
Wieviel Sinn es macht, diese „Unsicherheit der Natur selbst“ zu verwenden um irdische Anlagen zu beurteilen, sollte so langsam klar sein.
Und jetzt erklären Sie mal, wieso das ausgerechnet für die These „Uebbing vernichtet die Welt“ nicht zutreffen soll.
Wie gesagt, ich habe eine Rössler-Theorie dazu. Die brauche ich Ihnen nicht zeigen, schließlich waren Sie beim Otto auch schon bereit, alles einfach so hinzunehmen.
Nochmal, bitte: In Ihrem Keller als auch bei mir zuhause
werden keine hochenergetischen Teilchenkollisionen durchgeführt.
Zum Würfel: Ein Würfel definiert sich u.a. durch 6 gleiche Flächen –
gleichgültig ist, wie diese beschriftet sind. Hätte er nur 5 gleiche Flächen, so sprächen wir hier n i c h t über einen Würfel.
Zur JBSW-Wert einer „bounded“-„probability“:
Logisch ist, dass sich die Obergrenze des tatsächlich unbekannten
Wahrscheinlichkeitswertes, welcher aus Sicherheitsgründen
nach oben („zur sicheren Seite“) wissenschaftlicherseits
mit einem konkreten Zahlenwert begrenzt wurde,
sich nur sehr geringfügig verkleinert hat –
während der Zeit hier, in der diese Diskussion hier geführt wird
(pro Jahr um ca. ein14 Milliardstel).
Es besteht kein erkennbarer Grund anzunehmen, dass sich vor
der Gegenwart (also in der Vergangenheit) der Wert
der Risikoobergrenze sich wesentlich geändert hat.
(Zitat Teil 1 bleibt falsch, sh. b. o.)
Nochmal:
Die Beobachtungstatsache ist null (keine Vakuuminstabilität
zu verzeichnen).
Der tatsächliche Wahrscheinlichkeitswert in der Vergangenheit ist unbekannt; er kann nicht als Null nachgewiesen werden und kann n u r sinnvoll nach oben begrenzt werden – dies gilt auch unverändert für einen Wahrscheinlichkeitswert, der ab jetzt
angenommen werden muss.
Diese strenge Abgrenzung führen JBSW dankenswerterweise sehr konkret durch – ein gutes Beispiel für wissenschaftliche Korrektheit bei der Bewertung von Irrtumspotenzialen.
Die öffentliche Diskussion um eine korrekte Bewertung ultrakleiner
Risikowerte (Obergrenzen) steht aus.
Die Konsequenzen werden kein Forschungsstop bedeuten,
sondern die konkrete Realisierung risikomindernder
Maßnahmen.
Uebbing, Sie lenken schon wieder ab. Ich rede nicht von Teilchenkollisionen, sondern von Ihrer eigenen Existenz. Ich habe eine Rössler-artige Theorie, dass Sie gefährlich sind für den Bestand der bisherigen Naturgesetze. Sie akzeptieren beim Rössler auch jeden Blödsinn, also bitte, lenken Sie nicht ab.
Und was den Würfel angeht, nun, ich habe nur Ihre eigene Analogie aufgenommen und die Lücke aufgezeigt. Das Ihnen das nicht passt, war vorher klar.
Beobachtungstatsache ist auch, dass das Proton nicht zerfällt. Beobachtungstatsache ist auch, dass Äpfel von oben nach unten fallen. Das steht alles auf exakt der gleichen Stufe wie Beobachtet wird, dass Teilchenkollisionen mit teiweise erheblich höhrer Energie als in irdischen Beschleunigern möglich, keinen Zusammenbruch des derzeitigen Vakuums auslösen. (Die Datenbasis ist größer als im Falle „Uebbing vernichtet die Welt. Nach Jaffe et al ergäbe sich dafür sicherlich eine weitaus gefährlichere Wahrscheinlichkeit.).
Wenn Sie also diese Vakuum“unsicherheit“ in eine Risikodiskussion einbinden wollen wollen, müssen Sie ganz konsequent alles andere auch einbinden. Dann müssten Sie ganz konsequent selbst das Leben auf diesem Planeten als Risikofaktor bewerten. Denn: Für die meisten Prozesse, die heute auf der Erde stattfinden, gibt es weniger Sicherheit als im Falle der These „Teilchenkollisionen führen zum Vakuumübergang“.
Mich beschäftigt gerade einige Fragen, ich hoffe, ich verstehe das richtig:
Seit Entstehung des Universums hat es 10^47 Ereignisse gegeben, die laut mancher Modelle in (laienhaft ausgedrückt) so etwas wie eine Zerstörung des Universums (?) hätten münden können.Das sind, wenn ich nicht über ein paar Nullen gestolpert bin rund 10^38 derartige Ereignisse pro Jahr.
Frage 1. Wieviele vergleichbare Ereignisse würden denn durch den Large Hadron Collider jährlich hinzukommen? Ein paar tausend? Oder mehrere Millionen?
Frage 2. Die Wahrscheinlichkeit, dass ein solches Ereignis den von einigen Modellen erwarteten Effekt zeigt, ist kleiner als 1 : 10^47. In der Vergangenheit (seit Entstehung des Universums) ist sie 0. Sonst wüssten wir das. Das bestreitet auch Herr Uebbing ja anscheinend nicht. Mein Bauchgefühl ist, dass diese Eintrittswahrscheinlichkeit weit unterhalb jeglicher erwartbaren Effekte in anderen technischen Bereichen liegt. Das ein Kraftwerkunfall z.B. zu einen Super-Gau führt ist wahrscheinlicher. Liegt das Problem also gar nicht bei der Eintrittswahrscheinlichkeit sondern beim erwartbaren Schaden?
Frage 3. Wenn dem so wäre, um wieviel % würde sich dann das tatsächliche Risiko, dass das Universum genau durch ein solches Ereignis vernichtet wird – noch während der anzunehmenden Existenz von Menschen auf der Erde – erhöhen, wenn der Large hadron Collider noch Hunter Jahre läuft? Das wäre doch dann [10*38 x Restjahre Menschen auf der Erde + vom LHC erzeugte Ereignisse pro Jahr x 100] / [10*38 x Restjahre Menschen auf der Erde].?
Frage 4. Gehe ich (auch basierend auf meiner Frage 1 und 3) dann Recht in der Annahme, das diese zusätzliche Wahrscheinlickeit weit unterhalb dem Risiko liegt, dass die Menschheit vorher durch eine Naturkatastrophe, eigene Dummheit und das irrtümlich für später erwartete Ende des Sonnensystems vernichtet wird? Mit anderen Worten: Sollten diese Schlussfolgerung uns nicht eigentlich nahelegen, uns weniger um den LHC zu scheren, sondern um nachhaltiges Wirtschaften, mehr Geld für die Forschung etc. auszugeben? Mir gehts mit dieser Frage auch gar nicht um Öko-Agitation oder so, mir gings es nur mal um die Verhältnismäßigkeiten.
Sehr geehrter Herr Uebbing,
stimmen Sie mit mir überein, dass wenn die These 7 (und vorgängig natürlich auch noch die These 6) gültig ist – daran ist natürlich noch zu arbeiten – dann Ihre Beurteilung zu dieser Fragestellung anders ausfallen wird ?
Freundliche Grüsse, Ralf Kannenberg
Nein, die Berücksichtigung solcher fundamentaler „Risiken“ in den Naturgesetzen selbst führen konsequenterweise in den Stopp aller Aktivitäten.
Sehr geehrter Herr Uebbing,
vielen Dank für dieses anschauliche Beispiel, an dem wir die Überlegungen nochmals völlig unabhängig von der LHC/CERN-Thematik erörtern können: Wenn Sie zehnmal einen Würfel werfen und es erschien keine „6“, so ist die Wahrscheinlichkeit, dass bei diesen 10 Würfen keine „6“ erscheinen ist, 100%. Hier gibt es keine Rest-Wahrscheinlichkeiten, die über das Irrtumsmaß der Stufe 1 hinausgehen würden. Wenn man nur diese Wurfreihe als Grundlage nimmt und keine weiteren Kenntnisse über den Würfel hat, so ist die Wahrscheinlichkeit, dass bei einem Wurf eine „6“ gewürfelt wird, kleiner als 1:10, also recht hoch, aber – aufgrund der Versuchsreihe – tiefer als die bekannte Wahrscheinlichkeit von 1:6 bei einem idealen Würfel in unendlichfacher Anwendung.
Somit ist die von mir getätigte Aussage in Teil 1 in Abweichung Ihres Statements inhaltlich richtig.
Freundliche Grüsse, Ralf Kannenberg
Hallo Hans,
nein, das würde ich nicht sagen: man muss diese Risiken bzw. die zugrundeliegenden Ereignisse lediglich in die richtige Irrtumsmaß-Stufe klassieren und dann die der Stufe entsprechenden Massnahmen ergreifen.
Freundliche Grüsse, Ralf
Sehr geehrter Herr Uebbing,
der Würfel könnte aber eine Nummerierung 0 bis 5 aufweisen. Dann werfen Sie auch keine „6“.
Freundliche Grüsse, Ralf Kannenberg
Im Wesentlichen geht es darum, dass der Vakuumübergang ein Ereignis sein könnte, welches durch die möglichen Ereignisse eines Würfelwurfs nicht abgedeckt wird.
Aber gut, halten wir fest, dass Rudolf Uebbing gefordert hat, ab sofort bei jeder menschlichen Aktivität auch die mögliche Veränderung der Naturgesetze mit zu berücksichtigen. Das Universum gewissermaßen auf Sicherheit abzuklopfen. Wo er dann die Grenzen der Sicherheit zieht, wird vermutlich dann völlig willkürlich, interessengeleitet festgelegt.
Das wird eine richtig schöne neue Welt. 😀 So richtig sicher!
Sehr geehrter Herr Uebbing,
diese Forderung von Ihnen hat übrigens zur Folge, dass man aktuelle Forschungsdaten nicht für Sicherheitsanalysen verwenden darf. Ist das wirklich Ihr Anliegen ?
Freundliche Grüsse, Ralf Kannenberg
Sehr geehrter Herr Kannenberg,
hier in dem umstrittenen Beispiel (Vakuumsinstabilität)
ist die tatsächliche Wahrscheinlichkeit ein unbekannter extrem kleiner
Wert, weil Hochenergiekollisionen von Physikern nur
teilweise verstanden werden – diese tatsächliche, unbekannte
Wahrscheinlichkeit ist vor der Beobachtung (sagen
wir hier ca. 1999) dieselbe wie nach der Beobachtung;
Der Wert einer zugehörigen Obergrenze verringert sich
günstigerweise im Laufe der Zeit, weil mehr sicherstellende
Einzelbeobachtungen vorliegen, d.h. die diskutierte Vakuuminstabilität ist nicht eingetreten.
Die Lösung ist einfach –
wir sprechen von der
b e o b a c h t e t e n Wahrscheinlichkeit und von der
t a t s ä c h l i c h e n Wahrscheinlichkeit.
Die beobachtete Wahrscheinlichkeit ist – wie hier – Null,
die tatsächliche Wahrscheinlichkeit,
welche maßgeblich unsere Entscheidungen bestimmen muss,
nach wie vor unbekannt
(- darauf genau kommt es ja leider an -)
und lediglich derzeit nur nach oben abgrenzbar, sh. JBSW.
Auch wenn die b e o b a c h t e t e Wahrscheinlichkeit
hier im Beispiel beim 10-fachen hintereinander erfolgten Würfeln sich als exakt Null herausgestellt hat, muss eine Projektentscheidung
(für risikomindernde Maßnahmen)
sich auf den tatsächlichen Wert der Wahrscheinlichkeiten
beziehen – in diesem Beispiel beträgt er unverändert
bei einem ideal guten Würfel exakt 1:6.
Ich ergänze hier bitte Ihr Zitat Teil 1 um das Wort „beobachtete“:
“Die b e o b a c h t e t e Wahrscheinlichkeit, dass eine der vergangenen CR-Kollisionen eine Vakuuminstabilität ausgelöst hat, ist also exakt 0%; …” –
und ergänze weiter:
Die beobachtete Wahrscheinlichkeit verändert nicht die
unbekannte t a t s ä c h l i c h e Wahrscheinlichkeit, die im
Falle des RHIC von den Autoren JBSW mit dem
Wert 2*10**-36 begrenzt wurde.
Können wir damit leben ?
Mit freundlichem Gruß
Rudolf Uebbing
Das ist falsch. Es ist unerheblich, ob wir etwas im Detail verstehen, um aufgrund von Beobachtung etc etwas auszuschließen.
Aber auch diesen Fehlschluss haben Sie nicht zum ersten Mal im Programm.
Zu
#1167 | ralfkannenberg | 28. Juli 2011, 13:19
Der LSAG-Prozess muss ein dynamischer
Prozess sein – also eine s t ä n d i g
betriebene Sicherheitsanalyse.
Mir ist diese Textstelle, die dies im LSAG-Report 2008
belegt, leider derzeit nicht geläufig – ich gehe
aber davon aus, dass die LSAG ihre
Arbeit als ständigen Prozess ansieht –
was beruhigend ist, wenn danach strikt
verfahren wird. Derartige Aktivitäten
kann ich leider zur Zeit nicht so recht erkennen –
(wann gab es bitte die letzte publizierte Äusserung
seitens der LSAG ?).
Das bedeutet, das in LHC/HEP-Safety-Modellierungen
ständig neue Messdaten usw. einfließen.
Diese Daten werden genutzt, um die „Distanz“
zu kritischen, möglichen physikalischen Parametrisierungen
zu ermitteln und um danach ggf. die Beobachtungsdichte der
aktuellen Experimente festzulegen, um nur ausreichend
gesicherte Resultate in die Safety-Modellierungen
einfließen zu lassen, d.h. die Konfidenzintervalle zu
den Werten werden verschärft, welche die „Distanz“ zu kritischen
Parametrisierungen ausmachen. Dies bedarf freilich
eines ausgefeilten Regulatoriums, was offenbar
derzeit beim CERN nicht auszumachen ist (irre ich ?).
Dies setzt im Falle der gegebenen wissenschaftlichen, beachtenspflichtigen
Unkenntnis – bei einem derzeit vorhandenem Naturverständnis
von nur ca. 5 Prozent – ein strategisches Konzept voraus, wofür
die LSAG zuständig ist bzw. sich dazu machen kann.
D.h. wenn man in „unchartered waters“ vordringt –
wie aktiv eingreifenderweise in die Natur
bei der Hochenergiephysik es der Fall ist –
ist es überaus angebracht,
ein kleines Rechenzentrum nur eigens mit
dieser Safety-Daueraufgabe zu beauftragen.
(Das sollte die Bedeutung des LHC gut wert sein können.)
Sie sehen, gerade hier werden neue Forschungsdaten
gebraucht – die Konfidenzintervalle ergeben sich dabei
in einem dynamischen Arbeitsprozess. Ein Zeitverzug
ist freilich unvermeidlich – es gilt, ihn möglichst klein
zu halten.
Vielleicht ist ein ständiges wissenschaftliches
computerisiertes Sicherheits-Controlling
für einige Leute zur Zeit unvollstellbar! –
Wir werden sehen,
zu einer ähnlichen Lösung wird es kommen.
Lesen Sie, bitte, nach, wie in der Nuklearindustrie
gearbeitet wird – die PSA-Studien sind b e g l e i t e n d
zu den Projekten, von der Entwicklung bis zur Realisierung.
Ist ein derart systematisches, strukturiertes Vorgehen
(wie PSA: Probalistic Safety Assessment oder
PRA: Probalistic Risk Assessment)
bei der rein technischen Realisierung des LHC evtl.
vernachlässigt worden, so dass es zum zig-Millionen Euro
teuren Schaden im September 2008 kommen konnte ?
Kann hier nicht auch daraus die rein wissenschaftliche Seite des
Gesamtexperimentes LHC gezielt lernen ?
Sie mögen die Fragen als hart oder vielleicht sogar
als unverschämt empfinden –
dies ist aber eine berechtigte Aussensicht des Steuerzahlers.
#1169 | Hans | 28. Juli 2011, 13:43
Richtig ist, dass unvollständiges Wissen uns veranlassen muss,
worst-case-Annahmen heranzuziehen,
um möglichst gut auf „der sicheren Seite“ zu sein.
Unvollständiges Wissen gibt es gerade im Falle der hochenergetischen Teilchenkollisionen (z.B. “ u n k n o w n missing enery“ und mehr). Gerade hier soll Beschleunigertechnologie die Wissenslücken
schließen helfen.
Das hat LSAG besser getan als Sie jemals kapieren werden.
Das ist allerdings IHR Problem.
Es ist nach wie vor ein logischer Fehlschluss, man müsse zunächst alle Details verstehen um bestimmte Folgen ausschließen zu können. An der Stelle wäre auch das Stichwort Even if wieder einmal angebracht.
Was solls, kapieren werden Sie es nie. Ich habe sogar den starken Eindruck, Sie wissen nicht einmal, was Sie eigentlich nun wollen.
Das ist schon vor dem Hintergrund Ihrer eigenen Vorstellung von der „Fehleranfälligkeit“ der physkalischen Theorien und Modelle nur noch als Blödsinn zu bewerten.
Sie sind nicht einmal in der Lage, Ihre eigenen Vorstellungen mehr oder weniger konsistent zusammenzubringen. Da regiert lediglich die totale Beliebigkeit.
Das können Sie übrigens in der Tat auch in den Begründungen deutscher Gerichte nachlesen.
Der even if Ansatz ist da deutlich besser geeignet.
Wie wir wissen ist es ja bei der Nuklearindustrie noch nie zu einem millionenteurem Schaden gekommen.
Mal abgesehen davon, dass Sie es sich sparen sollten, diese billigen Vergleiche mit der Kernenergie in demagogischer Absicht immer wieder durch die Hintertür einzubrigen. Weiterhin interessant, wie Sie jetzt auf einmal ein technisches Problem, dessen Ausbleiben bei einer derartig hochkomplexen Maschine eher schon zu erwarten gewesen ist, in einen Topf werfen mit den gänzlich anders gelagerten physikalischen Abschätzungen.
Was wiederum die These bestätigt, dass Sie, vielleicht unbewusst, vielleicht bewusst, ein mieser kleiner Demagoge sind.
„dessen Ausbleiben bei einer derartig hochkomplexen Maschine eher schon zu erwarten gewesen ist,“
Natürlich muss es heißen:
„dessen Eintritt“
Herr Übbing,
ich hatte gestern bereits darauf hingewiesen, dass derartige Debatten in „Wissenschafts-Prosa“ dazu tendieren, sich im Kreis zu drehen und eine strengere Formalisierung angeregt.
Warum rechnen Sie Ihre Modelle nicht formal korrekt vor, wenn jene Ihrer Ansicht nach überzeugend sind und die Sache Ihnen so wichtig ist?
Grüsse,
S.
Ein paar Gedanken zu einer Analyse auf „even-if“-Basis:
Die Schlussfolgerungen auf even-if-Niveau
entbehren leider wichtiger entscheidender
Informationen wie Verlässlichkeitsangaben –
so können sie eine Sicherheit lediglich vortäuschen,
die tatsächlich nicht mit „even-if“ erreichbar ist.
Die PSA-Methodik
(PSA: Probalistik Safety Asssessment)
ist hier einfach die bessere Beurteilungstechnik,
weil sie m e h r Informationen berücksichtigt.
Dies bringt zwar Konfidenzintervalle zum
Vorschein
– also zugehörige Bandbreiten des möglichen Geschehens -,
was vielleicht im ersten Moment
mehr nach Aussagenunsicherheit sieht,
was aber bestens den tatsächlichen (unsicheren)
Wissensstand abbildet. Gerade eine vorhandene, unvermeidliche
Unsicherheit gilt es, n i c h t unter den Tisch fallen zu lassen.
PSA kann durchaus als eine wesentliche
Verallgemeinerung von „even-if“-geprägten
Analysen verstanden werden.
Konfidenzintervalle sind die Realität einer konsequenten,
einer umfassenden Beurteilung – d.h. Berücksichtigung und Auswertung von Verlässlichkeiten.
Die ja/nein-Logik (Aussagenlogik)
kommt mit weniger Eingangsdaten
als Eingangsinformation aus,
bildet aber n i c h t die tatsächliche Ungewissheit
des Naturverständnisses ab – wie auch,
es fehlt ja die Berücksichtigung der Verlässlichkeitsangaben!
Das ist eine Nullaussage, deren Begründung Sie seit Jahren schuldig bleiben.
Herr Übbing,
warum rechnen Sie denn jene „Verlässlichkeitsangaben“ für die 1E47er Stichprobe nicht einfach mal selbst aus und präsentieren Ihre Rechnung hier?
Zu #1176 | | 28. Juli 2011, 15:13:
Wie nachgelesen werden kann, sind PSA-Studien – wo hier sogar noch zusätzliche Komponenten zu entwickeln und anzupassen sind – eh sehr aufwendig.
Im Falle der Arbeit von Giddings und Mangano ist gut denkbar, dass die Bearbeitung und Bewertung von astrophysikalischen und astronomischen Verlässlichkeitsangaben (zu Stellarstatistiken etc. …) eine Erweiterung der Autorenschaft um z.B. spezialisierte Astronomen erfordert hätte, um einige Konfidenzintervalle und Irrtumspotenziale korrekt zu interpretieren und zu quantifizieren. Soviel Arbeitszeit stand u.U. nicht mehr
zur Verfügung angesichts des LHC-Starts im Sept. 2008.
Die Frage, wie sicher sind denn unsere Ausgangsdaten,
und welche Auswirkungen hat dies auf die Verlässlichkeit unserer
Resultate – diese Fragestellung finde ich leider nicht abgearbeitet vor.
Sehr geehrter Herr Uebbing,
selbstverständlich, aber das war nicht die Frage von galileo2609.
Bei der Beurteilung statistischer Aussagen muss man eben sehr grosse Sorgfalt walten lassen, sonst wird die Antwort falsch. – Und zusätzlich irreführend, weil kaum ein stiller Mitleser die ganze Geschichte der vergangenen 1000 Blogbeiträge kennt.
Was hier im Kleinen gilt, gilt übrigens auch im Grossen: Es ist überhaupt kein Problem, eine Risikoanalyse so zu verfassen, dass kein Entscheidungsträger ihre Aussagekraft versteht. Das ist bei direkten analytischen Nachrechnungen indes nicht so, es sei denn, Sie fordern von einer Fragestellung der Stufe n ein Irrtumsmaß der Stufe <= (n-1).
Freundliche Grüsse, Ralf Kannenberg
Herr Übbing, disponieren Sie hier nicht die Arbeitszeit der LSAG oder Dr. Giddings; sowas gehört sich nicht.
Sie selbst sind gefordert, Ihre Ausführungen mathematisch zu untermauern.
Und jetzt will ich kein Geschwurbel als Rückantwort lesen, sondern ich will zumindest einen Ansatz von Ihnen sehen.
Nicht zum Paper von G&M, nicht zu Enceladus, nicht zu weissen Elefanten, sondern zur Beurteilung der Verlässlichkeit einer exakten Stichprobe der Mächtigkeit 1E47.
War das jetzt deutlich genug?
Sie brauchen keine Analysis betreiben, keine numerischen Algorithmen entwickeln oder dergleichen; falls sowas notwendig werden sollte, helf ich Ihnen dann schon Ihnen geeignet weiter.
Aber einen zumindest einen Ansatz will ich mal von Ihnen sehen; Suchbegriffe, die brauchen könnten, sind u.A.
„Bernoulli-Prozess“ und „Maximum Likelihood“.
Sehr geehrter Herr Uebbing,
gewiss nicht: Wenn man vor 100 Jahren eine Sicherheitsanalyse erstellt hat, dass Fahrstühle nicht abstürzen, sondern im Absturzfall ein mechanischer Notbremsmechanismus aktiviert wird (ich kenne mich hier mit den Details natürlich nicht aus), so wird es nicht notwendig sein, diese Sicherheitsanalyse ständig zu aktualisieren !
Freundliche Grüsse, Ralf Kannenberg
Sehr geerhter Herr Uebbing,
natürlich nicht: Bei „even if“ berücksichtigt man natürlich Ihre Konfidenzintervalle. Eine einfache Überprüfung zeigt, dass das bei einem 3000x höheren Lebensalter von Neutronensternen gar nicht erforderlich ist: Nehmen Sie einfach die resultierenden maximal 300000 Jahre, addieren Sie dazu meinetwegen 10% Konfidenzintervall und vergleichen Sie das mit 1 Milliarde Jahre, von der Sie 10% Konfidenzintervall abgezogen haben.
Ich habe das für Sie gemacht: Der Faktor reduziert sich von 3333 auf 3267. Beides ist übrigens grösser als der von mir genannte Faktor 3000.
Freundliche Grüsse, Ralf Kannenberg
#1179 | Solkar | 28. Juli 2011, 16:32
Hier gem. der Anfrage v. Solkar ein kurz
skizzierter Ansatz für die Beschreibung der
Auswirkungen von Fehlern in den Ausgangsdaten.
Damit hier die Fehlerfortpflanzung
einmal simpel verdeutlicht werden kann, greife ich diese Frage auf
und deute knapp auf rechnerischem Weg
an, wie Fehler sich auswirken.
Die Angabe zur Wahrscheinlichkeitsobergrenze für eine
hypothische RHIC-verursachte Vakuuminstabiltität
wurde von Jaffe, Busza, Sandweiss und Wilczek mit
dem Wert von 2*10**-36 dokumentiert;
ich kürze mit „C“ ab – wie folgt:
C:=2*10**-36
Die Fehlerhaftigkeit dieses Wertes C soll beurteilt werden.
Hier deute ich sie als mittleren Fehler, den ich abkürze mit:
+/- c .
Die planerische Anzahl der Hochenergiekollisionen im RHIC
beträgt 2*10**11 , hier abgekürzte mit A.
(Die Unsicherheit des Wertes A oder eines aktualisierten
Wertes von A ließe sich nun nach Jahren im Nachhinein
besser beurteilen.)
Der zugehörigen Wert der Unsicherheit von A
sei als mittlerer Fehler deutbar,
ich kürze ihn ab mit:
+/- a.
Die im Universum bis heute erfolgten energetisch
vergleichbaren Teilchenkollision werden mit
der Anzahl 1*E47 angesetzt; ich kürze mit B ab.
Der mittlere Fehler hierzu sollte ggf. in der Quelle,
angegeben bei JBSW, auffindbar sein,
diesen kürze ich ab mit:
+/- b.
Nun gilt gemäßt JBSW:
C = A / B, ein Anteil, der zugleich als
Obergrenze einer bestimmten Wahrscheinlichkeit
von JBSW eingeführt wird.
Nun, wie wirken sich die Fehlerhaftigkeiten von
A und B auf C auf ?
Antwort: Hier kann man sich einen ersten Eindruck
verschaffen, in dem man
C +/- c = ( A +/- a) / ( B +/- b) einmal
in allen Kombinationen durchrechnet.
Professionell geschieht dies durch Anwendung
des Fehlerfortpflanzungsgesetzes, was zugleich dabei
hilft, Vertrauensintervalle zu ermitteln.
Man kann sich vorstellen, dass in längeren Schlussfolgerungsketten derartige Fehlerauswirkungen
u.U. sich bedeutsam aufsummieren können –
daher heißt es hier, nachzuweisen,
a) dass man unter gewissen
Toleranzen bleibt (es wurden leider keine diskutiert
und festgesetzt)
und
b) ein ausreichend hohes Signifikanzniveau des Schlussresultates
zu ermitteln (auch die Festsetzung eines erforderlichen
Signifikanzniveaus/Wertes – wie in der Hypothesenbewertung üblich – ist nicht geschehen.)
Man sieht leicht ein, eine reine „even-if“-Methodik ist
ein tatsächlich gebrechlicher Krückstock,
weil sie bestimmte, entscheidend wichtige Angaben n i c h t
transportiert.
Diese Methodik mit einer ja/nein-Antwort
auf Basis der zweistelligen Aussagenlogik kann
letzten Endes eine Sicherheit vortäuschen,
welche tatsächlich nicht existieren muss.
Eine Wahrscheinlichkeitslogik ist bei
weitem aussagekräftiger als simpel angewendete
Aussagenlogik – die Unsicherheitsangaben aus einer PSA-Studie
garantieren am besten für eine reale Sicherheit
– dies zu verstehen, ist offenbar nicht leicht.
Sehr geehrter Herr Uebbing,
das ist im Allgemeinen unzutreffend: eine analytische Nachrechnung kann durchaus mehr Eingangsinformationen benötigen als eine vage Risikoanalyse. Muss nicht, kann aber.
Es gibt also keinen Zusammenhang zwischen der Anzahl der Eingangsinformationen und der verwendeten Methodik (analytische Nachrechnung oder Risikoanalyse).
Freundliche Grüsse, Ralf Kannenberg
Sehr geehrter Herr Uebbing,
nein, das ist nicht „gut denkbar„: Diese Angaben, die Sie benötigen, finden Sie in den referenzierten Publikationen.
Nehmen Sie als Beispiel meine obige Rechnung von heute 17:38 Uhr und beachten Sie dabei bitte, dass diese Beispielrechnung eine irrsinnig hohen Fehler von 10% verwendet.
Freundliche Grüsse, Ralf Kannenberg
Zu #1184 | ralfkannenberg | 28. Juli 2011, 17:38:
Vielen Dank für den von Ihnen demonstrierten Sicherheitsfaktor,
der zugleich als ein restlicher Unsicherheitsfaktor
gedeutet werden kann.
Professionalisierte Zusatzkalkulationen dieser Art, systematisiert und strukturiert, hätte ich in einer bedeutsamen Untersuchung wie bei G&M erwartet – dazu mag wohl aber keine Zeit da gewesen sein, die Ergebnisse im Detail auf einige Unwägbarkeiten quantifizierend abzuklopfen.
Zusätzliche Variationen der Eingabedaten
werden den Sicherheitsfaktor beeinflußen.
Letzten Endes muß ein Sicherheitsfaktor umgerechnet werden können
in statistisch gängig, gebräuchliche Maßzahlen – z.B. Irrtumsgrenze
kleiner als 10**-x –
damit sie risikotechnisch verarbeitet werden können.
Sehr geehrter Herr Uebbing,
nehmen wir wieder einmal die 10%, also a=10%*A und b=10%*B.
Wenn ich Sie richtig verstanden haben suchen Sie eine Wahrscheinlichkeitsobergrenze; also müssen wir den Zähler möglichst gross und den Nenner möglichst klein machen. Also wird der Zähler mit 1.1 und der Nenner mit 0.9 multipliziert, das liefert einen Faktor 1.22.
Somit erhöht sich der Wert von C von 2*10**-36 auf 2.44*10**-36.
Und nun ? Geht die Welt jetzt wegen des RHIC unter ?
Freundliche Grüsse, Ralf Kannenberg
Die bei G&M angewendete „even-if“-Analysetechnik
berücksichtigt keine quantifizierenden Verlässlichkeitsangaben –
ein am Ende stehendes Resultat m u s s
deswegen nachgefragt werden, zu dem, welches denn die
Auswirkungen der nicht berücksichtigten Angaben
sind;
diese unentbehrliche Art von Angaben sind m i t e n s c h e i d e n d
über die Güte des Endergebnisses.
Sehr geehrter Herr Kannenberg,
danke dafür, dass Sie die abstrakte Rechnung
zu der JBSW-Wahrscheinlichkeitsobergrenze
mit Beispielzahlen füllen. Wir nähern
uns einem Realismus – der heißt hier Bewusstmachung
von gewissen Unsicherheiten; dies allein halte ich
für wichtig genug.
Mit freundlichem Gruß
Rudolf Uebbing
Uebbing, hören Sie auf rumzuschwafeln, zeigen Sie lieber, dass sich an der Schlussfolgerung von G&M irgendetwas ändern würde.
Ihre Vermutungen bezüglich der angeblichen Auslassungen sind übrigens gänzlich irrelevant. G&M haben ihre Quellen referenziert. In diesen sind jeweils Fehler nachlesbar. Wären diese Fehler relevant gewesen, hätte man die Beispiele vermutlich gar nicht erst herangezogen.
usw.
Ich habe nach wie vor den starken Eindruck, dass Sie die Arbeit von Giddings und Mangano weder richtig gelesen noch verstanden haben.
Welche Unsicherheiten wollen Sie bewusst machen? Die Unsicherheit, dass in einer von Menschen gebauten Maschine auf einmal Naturgesetze ausser Kraft gesetzt werden? Das dort auf einmal Prozesse in Gang gesetzt werden, welche die Natur mit vielfach höheren Energien selbst nicht starten konnte?
Nun ja, es ist schon peinlich, dass Sie es in drei Jahren Geschwafel nicht einmal geschafft haben, auch nur die zwei Beispielrechnungen von Herrn Kannenberg oben selbst zu produzieren. Mehr als peinlich.
Aber gut, dann hätte sich ja evt gezeigt, dass Ihre „Kritik“ irrelevant sein könnte…und das passt ja nicht zur Agitationsabsicht.
Herr Übbing,
ihr Beitrag #1185 28. Juli 2011, 17:40 war ein methodischer Riesenschritt in Richtung eines konstruktiven Diskussionsverlaufs (und ich freue mich, dass Sie mal „mitmachen“).
Aber inhaltlich ging’s am Thema vorbei; eine Teilschuld daran nehme aber ich auf mich, weil ich mich vlt. missverständlich ausgedrückt hatte.
Also erneut:
Wir betrachten die 1E47 Stichprobe einfach mal, wie gesagt, als exakt; „Messfehler“, „Irrtümer“ und dergleichen bleiben zunächst ausser Ansatz.
Wie zuverlässig ist eine Nullrisko-Schätzung
(Katrastrophenereignis ω, Wahrscheinlichkeit p)
p(ω) = 0
auf Basis der 1E47?
Grüsse,
S.
Meine Beschreibung:
„Der LSAG-Prozess muss ein dynamischer
Prozess sein – also eine s t ä n d i g
betriebene Sicherheitsanalyse.“
wurde oben mit den technischen Sicherheitsbedürfnissen
eines Fahrstuhles verglichen.
Generaldirektor Dr. Heuer konstatierte sinngemäß
erst vor kurzem in der Welt am Sonntag,
dass bei derzeit 5 Prozent Naturverständnis im Sinne
unserer Forschungen uns auch
die Natur wohl gesonnen sein möge.
Angesichts dessen, dass möglicherweise
– unter nicht natürlichen Verhältnissen –
jetzt die „Dunkle Materie“,
vielleicht ungewollt,
ein Untersuchungsgegenstand bei
aktivem Einwirken in die natürlichen Verhältnisse
werden kann
und
n u r derzeit 1 / 20 Naturverständnis gegeben ist,
verstehe man doch bitte die Gedanken, dass
a)
hier ein Sicherheitsvergleich mit Fahrstühlen zu hinken scheint,
und
b)
dass z.B. Automatisierungen des Sicherheitsprozesses
zum Thema gemacht werden sollten / müssen –
als Teil einer ständigen Aufgabenerledigung der LSAG.
Meine Prognose:
In etwa einem Jahrzehnt wird
ein kleines separates Rechenzentrum am CERN
eine derartige ständige Analyse übernehmen.
(Nur einmal am Rande gefragt:
Im Weltall wird es nicht vorkommen,
dass relativ langsame, ‚dunkle‘ Materieteilchen
auf ultrakaltes, superfluides Material stoßen –
am CERN ist dies möglich – gibt
es dafür Modellrechnungen ? )
Sehr geehrter Herr Uebbing,
spielen wir nun mal ein bisschen mit den Weissen Zwergen von G&M.
Das ist das Kriterium: M > ca. m_sun und B_p < "few" 10**5 G und T > ca. 100 Myr.
Das sind die Daten:
WD0346-011: M = 1.25m_sun, B_p < 1.2*(10**5 G), T ca. 100 Myr
WD1022-301: M = 1.2m_sun, B_p < 1.2*(10**5 G), T grösser ca. 100 Myr
WD1724-359: M = 1.2m_sun, B_p < 1.2*(10**5 G), T ca. 150 Myr
WD2159-754: M = 1.17m_sun, B_p < 3*(10**4 G), T ca. 2.5 Gyr
WD0652-563: M = 1.16m_sun, B_p < 2.7*(10**5 G), T ca. 100 Myr
WD1236-495: M = 1.1m_sun, B_p < 3*(10**4 G), T grösser ca. 1 Gyr
WD2246+223: M = 0.97m_sun, B_l = (1.5 +/- 13.8)*(10**3 G), T ca. 1.5 Gyr
WD2359-434: M = 0.98m_sun, B_l = 3*(10**3 G), T ca. 1.5 Gyr
Bei den beiden letzten muss man eine Umformung gemäss [62], Formel (2) machen; ich habe keine Lust dazu; zudem sind die „ein bisschen“ schwach bei ihrer Masse; also lassen wir die beiden kurzerhand mal weg.
Nun rechnen wir es wieder einmal mit absurd hohem Beobachtungsfehler, also 10%.
Bei der Masse muss man also 10% abziehen; das schaffen alle 6 verbleibenden Weisse Zwerge. Hier also keine Einschränkung.
Beim Magnetfeld muss man 10% draufschlagen; ich weiss nicht, was „few“ bedeutet und setze es deswegen mal zu 2. Lediglich der 5.Weisse Zwerg schafft das nicht, er kommt mit den 10% mehr auf knapp 3*10**5 Gauss. Sollte „few“ auch noch 3 bedeuten, würde er das Kriterium mit 10%-Fehler ebenfalls noch erfüllen.
Beim Lebensalter muss man wieder 10% abziehen, was Unsinn ist, denn das Auskühlalter ist genauer bestimmbar als 10%, aber spielen wir das nun dennoch so durch. Dann kriegen der 1., 2. und wieder der 5.Weisse Zwerg ein Problem.
Fazit: Trotz absurd hohem Fehlerwert erfüllen immer noch 3 Weisse Zwerge (Nr.3, 4 und 6) die Kriterien; zwei (Nr.1 und 2) fallen knapp beim Lebensalter durch und einer (Nr.5) knapp beim Lebensalter und beim Magnetfeld der Interpretation der „few“.
Und nun ? Ist das Argument der Weissen Zwerge jetzt nicht mehr gültig ?
Freundliche Grüsse, Ralf Kannenberg
Bemerkung: Wegen den grösser- und kleiner-Zeichen musste ich im Text zweimal das „grösser“ ausschreiben, weil es sonst als Tag interpretiert worden wäre.
Zitieren Sie gefälligst im Zusammenhang! Galileo hatte Sie schon auf Ihre verzerrende Darstellung aufmerksam gemacht.
Agitator!
Und der Rest ist wieder einmal nur sinnloses Blabla. Nur weil wir nicht alles im Detail wissen, heißt das nicht, dass alles möglich ist.
Auch Wechselwirkungen mit Dunkler Materie, wie Sie Ihnen gerade vorzuschweben scheint, ist bereits ausgeschlossen, schauen Sie in den Vergangenheitslichtkegel.
#1194 | Solkar | 28. Juli 2011, 18:29
Ihre Frage, bei welcher Signifikanz ein
Nullrisiko angenommen werden kann,
ist hoch interessant –
sicher haben Sie eine
Antwort auf Basis spezieller Verteilungen
der Statistik und weiter dazu sich
ergebende Nebenbedingungen sich überlegt.
Die bereits vorhandene
Ausgangsmenge von 10**47 ist enorm
(seien es die oben angesprochenen gezogenen,
weißen Kugeln ? – sh. haereticus);
der vorhandene Gesamtvorrat möglicherweise
noch viel größer und unbekannt.
Vielleicht fangen wir mit einer gezogenen
Ausgangsmenge –
nur bestehend aus 1 Element an – eine
weiße Kugel (das Universum ist mithin extrem jung).
Wollen Sie, bitte, Ihr Wissen preisgeben ?