Skip to content

Otto E. Rössler – Anthologie eines Welträtsellösers

von Redaktion am 6. Dezember 2010

Otto E. Rössler reibt sich nun bereits seit Jahren an den Institutionen der akademischen Wissenschaft. Neben bizarren Aktionen setzt der wissenschaftliche Aussenseiter und Mentor des LHC-Widerstands über Dekaden hinweg auch auf eine Welterklärung, die mit skurrilen „Theorien“ die Wissenschaft umkrempeln soll. RelativKritisch hatte dem Tübinger Mediziner angeboten, seine grenzwertigen Texte kommentiert zu veröffentlichen, wenn er keine anderen Möglichkeiten mehr hat. Otto E. Rössler hat dieses Angebot jetzt zum ersten Mal genutzt.

Otto E. Rössler, Baden-Baden 2010

Otto E. Rössler, Baden-Baden 2010

RelativKritisch stellt mit dieser speziellen „Anthologie eines Welträtsellösers“, Otto E. Rössler einen Platz für eine Veröffentlichung seiner Texte und der freien Diskussion dazu unzensurierten Raum zur freien Verfügung. Dabei sind lediglich die allgemeinen rechtlichen Pflichten des Betreibers des Portal RelativKritisch und die von ihm übergreifend erstellten Nutzungsbedingungen zu beachten. Die Redaktion von RelativKritisch behält sich im Rahmen dieser Voraussetzungen Moderationsmassnahmen vor.

Otto E. Rössler hat einen ersten Beitrag und dessen eigene englische Übersetzung auf RelativKritisch veröffentlicht. Seinen Text „Fröhliche Wissenschaft mit lachend in Kauf genommener nicht unwahrscheinlicher Todesfolge für alle“ und die ersten Kommentare dazu veröffentlichen wir nachstehend.

  • Diskutiere über Otto E. Rössler und seine „Anthologie eines Welträtsellösers“ auch im Forum Alpha Centauri!

RelativKritisch E-Edition

 Als ePub herunterladen 2041

Die Artikel von RelativKritisch gibt es auch als E-Book im ePub-Format zum kostenlosen Download!

Ähnliche Beiträge

1.318 Kommentare |
 
  1. #1151 | Rudolf Uebbing | 28. Juli 2011, 10:34

    An Hans:

    Sehr froh wäre ich, wenn Sie sich der strengen
    wissenschaftlichen Betrachtungsweise von Jaffe,
    Busza, Sandweiss, Wilczek einfach anschließen könnten.

    Diesen Kommentar: Zitieren
  2. #1152 | Hans | 28. Juli 2011, 10:35

    Jedoch gilt für mich: Auch ultrakleine
    Werte sind, wie eine Plausibilisierung ergibt,
    sehr wohl von einer bestimmten, nicht auszulassenden
    Bedeutung.

    Ja, aber nur wenn es Ihnen opportun erscheint. Sie sind da ganz klar von Interessen getrieben. Sonst würden Sie nicht so lapidar über Thesen wie „Rudolf Uebbings Augenzwinkern ist gefährlich“ hinweg gehen.

    Übrigens ist das in der Vergangenheit sicherlich seltener vorgekommen, als hochenergetische Teilchenkollisionen. Die Unsicherheit ist bzgl Ihrer Existenz deutlich größer. Und das im Prinzip nach Jaffe. Und nun? (Und kommen Sie nicht damit, dabei würden keine Teilchen kollidiert, Einerseits sind die schon aus dem Spiel, siehe Universumsvergangenheit, andererseits kann ich bei Zugrundelegung wissenschaftlicher Standards wie sie von Otto E. Rössler praktiziert werden mit Leichtigkeit irgendeine schwachsinnige Theorie aus dem Hut zaubern, die genau das vorhersagt. Mit Berufung auf Einstein, Heisenberg, Gödel und sonstwen. Da Sie solches ja bereits bei Rössler akzeptieren, können Sie es nicht aus Gründen der Opportunität jetzt ablehnen. )

    Diesen Kommentar: Zitieren
  3. #1153 | Hans | 28. Juli 2011, 10:37

    Sehr froh wäre ich, wenn Sie sich der strengen
    wissenschaftlichen Betrachtungsweise von Jaffe,
    Busza, Sandweiss, Wilczek einfach anschließen könnten.

    Wissen Sie, so einige hier wären froh, wenn Sie einmal inhaltlich verstehen würden, was dort steht. Hilfestellungen gab es jetzt genug.

    Ihre Interpretation führt zwangsweise zur Untersuchung, ob das Universum überhaupt noch sicher genug sei.

    Diesen Kommentar: Zitieren
  4. #1154 | Hans | 28. Juli 2011, 10:41

    Ich sehe gerade, dass Herr Kannenberg Ihnen das noch einmal genau erklärt hat. Wenn Sie es jetzt immer noch nicht kapiert habem, ist Ihnen wirklich nichtmehr zu helfen.

    Entweder sind Sie dann zu dumm. oder Sie wollen nur agitieren und die Zahl von Jaffe kommt Ihnen da gerade recht.

    Diesen Kommentar: Zitieren
  5. #1155 | Hans | 28. Juli 2011, 10:44

    Die Wahrscheinlichkeit, dass eine der vergangenen CR-Kollisionen eine Vakuuminstabilität ausgelöst hat, ist also exakt 0%; die Wahrscheinlichkeit, dass eine davon eine CR-Kollision eine Vakuuminstabilität auslösen kann, ist kleiner als 1:10**47.

    Und ähnliches gilt auch für die Stabilität der Elementarteilchen, Naturgesetze wie die Gravitation und so weiter.

    Wenn die Möglichkeiten, dass solche Prozesse in der zukunft vielleicht doch noch stattfinden könnten, ernsthaft für irgendetwas herangezogen werden sollen hier auf der Erde, dann begehen wir besser alle sofort kollektiven Selbstmord. Das Universum wäre dann schlicht zu gefährlich.

    Diesen Kommentar: Zitieren
  6. #1156 | Rudolf Uebbing | 28. Juli 2011, 11:01

    An Hans:

    Zur Erläuterung nochmal das sachlich nicht zutreffende Zitat:

    „Die Wahrscheinlichkeit, dass eine der vergangenen CR-Kollisionen eine Vakuuminstabilität ausgelöst hat, ist also exakt 0%;
    die Wahrscheinlichkeit, dass eine davon eine CR-Kollision eine Vakuuminstabilität auslösen kann, ist kleiner als 1:10**47.“

    Ich zerlege das Zitat in zwei Teile:
    Hier zunächst Teil 2:

    „… die Wahrscheinlichkeit, dass eine davon eine CR-Kollision eine Vakuuminstabilität auslösen kann, ist kleiner als 1:10**47.“

    Dies ist streng wissenschaftlich zutreffend; d.h. derzeit
    kann Teil 2 nicht widerlegt werden.

    Teil 1 (die Aussage ist inhaltlich falsch):
    „Die Wahrscheinlichkeit, dass eine der vergangenen CR-Kollisionen eine Vakuuminstabilität ausgelöst hat, ist also exakt 0%; …“
    Tatsache ist, dass die Beobachtung den Wert exakt Null
    ergibt; hier aber auf eine beliebig genauen Wert einer
    Wahrscheinlichkeit zu schließen – dies ist wissenschaftlich
    f a l s c h. Bitte, überlegen Sie, warum.

    Grund – Klarmachung durch eine Analogie:
    Ich werfe z.B. zehnmal einen Würfel – es erschien
    keine „6“; in derselben Schlussfolgerungsqualität
    (wie oben in Teil 1 erlebbar)
    wäre jetzt die Konsequenz zu sagen:
    Die Wahrscheinlichkeit eine „6“ zu würfeln ist Null –
    so einfach kann man sich die tatsächliche Fehlerhaftigkeit der
    Aussage im Zitat Teil 1 überlegen.
    ………………………………………………………..

    Hier möchte ich noch ergänzen mitteilen,
    wie ich strenge Wissenschaftlichkeit sehe:

    Dies heißt für mich u.a.:
    a) Sich grundsätzlich zu einer Irrtumsfähigkeit zu bekennen
    b) Irrtumspotenziale genauestens und gewissenhaft auszuloten

    Wie sehen Sie dies, bitte ?

    Diesen Kommentar: Zitieren
  7. #1157 | Hans | 28. Juli 2011, 11:07

    Sie vergessen einen weiteren Fall. Nämlich einen Würfel, der erst gar keine 6 enthält.

    Analog wäre das die physikalische Unmöglichkeit, dass hochenergetische Teilchenkollisionen das Vakkum verändern. Ein Naturgesetz eben.

    An die Möglichkeit konnten Sie allerdings nicht denken. Würder der Agitation entgegenlaufen.

    Wenn Sie jetzt sagen, alles unsicher, ok. Dann ist aber auch g e n a u s o unsicher, dass die Sonne morgen noch da ist. Das Elementarteilchen nicht morgen anfangen zu zerfallen. ETC.

    Wieviel Sinn es macht, diese „Unsicherheit der Natur selbst“ zu verwenden um irdische Anlagen zu beurteilen, sollte so langsam klar sein.

    Diesen Kommentar: Zitieren
  8. #1158 | Hans | 28. Juli 2011, 11:09

    Und jetzt erklären Sie mal, wieso das ausgerechnet für die These „Uebbing vernichtet die Welt“ nicht zutreffen soll.

    Wie gesagt, ich habe eine Rössler-Theorie dazu. Die brauche ich Ihnen nicht zeigen, schließlich waren Sie beim Otto auch schon bereit, alles einfach so hinzunehmen.

    Diesen Kommentar: Zitieren
  9. #1159 | Rudolf Uebbing | 28. Juli 2011, 11:51

    Nochmal, bitte: In Ihrem Keller als auch bei mir zuhause
    werden keine hochenergetischen Teilchenkollisionen durchgeführt.

    Zum Würfel: Ein Würfel definiert sich u.a. durch 6 gleiche Flächen –
    gleichgültig ist, wie diese beschriftet sind. Hätte er nur 5 gleiche Flächen, so sprächen wir hier n i c h t über einen Würfel.

    Zur JBSW-Wert einer „bounded“-„probability“:
    Logisch ist, dass sich die Obergrenze des tatsächlich unbekannten
    Wahrscheinlichkeitswertes, welcher aus Sicherheitsgründen
    nach oben („zur sicheren Seite“) wissenschaftlicherseits
    mit einem konkreten Zahlenwert begrenzt wurde,
    sich nur sehr geringfügig verkleinert hat –
    während der Zeit hier, in der diese Diskussion hier geführt wird
    (pro Jahr um ca. ein14 Milliardstel).

    Es besteht kein erkennbarer Grund anzunehmen, dass sich vor
    der Gegenwart (also in der Vergangenheit) der Wert
    der Risikoobergrenze sich wesentlich geändert hat.
    (Zitat Teil 1 bleibt falsch, sh. b. o.)

    Nochmal:
    Die Beobachtungstatsache ist null (keine Vakuuminstabilität
    zu verzeichnen).
    Der tatsächliche Wahrscheinlichkeitswert in der Vergangenheit ist unbekannt; er kann nicht als Null nachgewiesen werden und kann n u r sinnvoll nach oben begrenzt werden – dies gilt auch unverändert für einen Wahrscheinlichkeitswert, der ab jetzt
    angenommen werden muss.

    Diese strenge Abgrenzung führen JBSW dankenswerterweise sehr konkret durch – ein gutes Beispiel für wissenschaftliche Korrektheit bei der Bewertung von Irrtumspotenzialen.

    Die öffentliche Diskussion um eine korrekte Bewertung ultrakleiner
    Risikowerte (Obergrenzen) steht aus.

    Die Konsequenzen werden kein Forschungsstop bedeuten,
    sondern die konkrete Realisierung risikomindernder
    Maßnahmen.

    Diesen Kommentar: Zitieren
  10. #1160 | Hans | 28. Juli 2011, 12:38

    Uebbing, Sie lenken schon wieder ab. Ich rede nicht von Teilchenkollisionen, sondern von Ihrer eigenen Existenz. Ich habe eine Rössler-artige Theorie, dass Sie gefährlich sind für den Bestand der bisherigen Naturgesetze. Sie akzeptieren beim Rössler auch jeden Blödsinn, also bitte, lenken Sie nicht ab.

    Und was den Würfel angeht, nun, ich habe nur Ihre eigene Analogie aufgenommen und die Lücke aufgezeigt. Das Ihnen das nicht passt, war vorher klar.

    Beobachtungstatsache ist auch, dass das Proton nicht zerfällt. Beobachtungstatsache ist auch, dass Äpfel von oben nach unten fallen. Das steht alles auf exakt der gleichen Stufe wie Beobachtet wird, dass Teilchenkollisionen mit teiweise erheblich höhrer Energie als in irdischen Beschleunigern möglich, keinen Zusammenbruch des derzeitigen Vakuums auslösen. (Die Datenbasis ist größer als im Falle „Uebbing vernichtet die Welt. Nach Jaffe et al ergäbe sich dafür sicherlich eine weitaus gefährlichere Wahrscheinlichkeit.).

    Wenn Sie also diese Vakuum“unsicherheit“ in eine Risikodiskussion einbinden wollen wollen, müssen Sie ganz konsequent alles andere auch einbinden. Dann müssten Sie ganz konsequent selbst das Leben auf diesem Planeten als Risikofaktor bewerten. Denn: Für die meisten Prozesse, die heute auf der Erde stattfinden, gibt es weniger Sicherheit als im Falle der These „Teilchenkollisionen führen zum Vakuumübergang“.

    Diesen Kommentar: Zitieren
  11. #1161 | knorke | 28. Juli 2011, 12:39

    Mich beschäftigt gerade einige Fragen, ich hoffe, ich verstehe das richtig:
    Seit Entstehung des Universums hat es 10^47 Ereignisse gegeben, die laut mancher Modelle in (laienhaft ausgedrückt) so etwas wie eine Zerstörung des Universums (?) hätten münden können.Das sind, wenn ich nicht über ein paar Nullen gestolpert bin rund 10^38 derartige Ereignisse pro Jahr.

    Frage 1. Wieviele vergleichbare Ereignisse würden denn durch den Large Hadron Collider jährlich hinzukommen? Ein paar tausend? Oder mehrere Millionen?

    Frage 2. Die Wahrscheinlichkeit, dass ein solches Ereignis den von einigen Modellen erwarteten Effekt zeigt, ist kleiner als 1 : 10^47. In der Vergangenheit (seit Entstehung des Universums) ist sie 0. Sonst wüssten wir das. Das bestreitet auch Herr Uebbing ja anscheinend nicht. Mein Bauchgefühl ist, dass diese Eintrittswahrscheinlichkeit weit unterhalb jeglicher erwartbaren Effekte in anderen technischen Bereichen liegt. Das ein Kraftwerkunfall z.B. zu einen Super-Gau führt ist wahrscheinlicher. Liegt das Problem also gar nicht bei der Eintrittswahrscheinlichkeit sondern beim erwartbaren Schaden?

    Frage 3. Wenn dem so wäre, um wieviel % würde sich dann das tatsächliche Risiko, dass das Universum genau durch ein solches Ereignis vernichtet wird – noch während der anzunehmenden Existenz von Menschen auf der Erde – erhöhen, wenn der Large hadron Collider noch Hunter Jahre läuft? Das wäre doch dann [10*38 x Restjahre Menschen auf der Erde + vom LHC erzeugte Ereignisse pro Jahr x 100] / [10*38 x Restjahre Menschen auf der Erde].?

    Frage 4. Gehe ich (auch basierend auf meiner Frage 1 und 3) dann Recht in der Annahme, das diese zusätzliche Wahrscheinlickeit weit unterhalb dem Risiko liegt, dass die Menschheit vorher durch eine Naturkatastrophe, eigene Dummheit und das irrtümlich für später erwartete Ende des Sonnensystems vernichtet wird? Mit anderen Worten: Sollten diese Schlussfolgerung uns nicht eigentlich nahelegen, uns weniger um den LHC zu scheren, sondern um nachhaltiges Wirtschaften, mehr Geld für die Forschung etc. auszugeben? Mir gehts mit dieser Frage auch gar nicht um Öko-Agitation oder so, mir gings es nur mal um die Verhältnismäßigkeiten.

    Diesen Kommentar: Zitieren
  12. #1162 | ralfkannenberg | 28. Juli 2011, 12:40

    Eine vornehmlich durch eine zweistellige
    Aussagenlogik geprägte Analyse, die zufällige
    Fehlerhaftigkeiten nicht explizit mit ins Kalkül
    aufnimmt, halte ich für unzureichend –
    wenigstens in einem Fall der hier diskutierten ausserordentlichen Bedeutung.

    Sehr geehrter Herr Uebbing,

    stimmen Sie mit mir überein, dass wenn die These 7 (und vorgängig natürlich auch noch die These 6) gültig ist – daran ist natürlich noch zu arbeiten – dann Ihre Beurteilung zu dieser Fragestellung anders ausfallen wird ?

    Freundliche Grüsse, Ralf Kannenberg

    Diesen Kommentar: Zitieren
  13. #1163 | Hans | 28. Juli 2011, 12:41

    Die Konsequenzen werden kein Forschungsstop bedeuten,
    sondern die konkrete Realisierung risikomindernder
    Maßnahmen.

    Nein, die Berücksichtigung solcher fundamentaler „Risiken“ in den Naturgesetzen selbst führen konsequenterweise in den Stopp aller Aktivitäten.

    Diesen Kommentar: Zitieren
  14. #1164 | ralfkannenberg | 28. Juli 2011, 12:55

    Teil 1 (die Aussage ist inhaltlich falsch):
    “Die Wahrscheinlichkeit, dass eine der vergangenen CR-Kollisionen eine Vakuuminstabilität ausgelöst hat, ist also exakt 0%; …”
    Tatsache ist, dass die Beobachtung den Wert exakt Null
    ergibt; hier aber auf eine beliebig genauen Wert einer
    Wahrscheinlichkeit zu schließen – dies ist wissenschaftlich
    f a l s c h. Bitte, überlegen Sie, warum.

    Grund – Klarmachung durch eine Analogie:
    Ich werfe z.B. zehnmal einen Würfel – es erschien
    keine “6″; in derselben Schlussfolgerungsqualität
    (wie oben in Teil 1 erlebbar)
    wäre jetzt die Konsequenz zu sagen:
    Die Wahrscheinlichkeit eine “6″ zu würfeln ist Null

    Sehr geehrter Herr Uebbing,

    vielen Dank für dieses anschauliche Beispiel, an dem wir die Überlegungen nochmals völlig unabhängig von der LHC/CERN-Thematik erörtern können: Wenn Sie zehnmal einen Würfel werfen und es erschien keine „6“, so ist die Wahrscheinlichkeit, dass bei diesen 10 Würfen keine „6“ erscheinen ist, 100%. Hier gibt es keine Rest-Wahrscheinlichkeiten, die über das Irrtumsmaß der Stufe 1 hinausgehen würden. Wenn man nur diese Wurfreihe als Grundlage nimmt und keine weiteren Kenntnisse über den Würfel hat, so ist die Wahrscheinlichkeit, dass bei einem Wurf eine „6“ gewürfelt wird, kleiner als 1:10, also recht hoch, aber – aufgrund der Versuchsreihe – tiefer als die bekannte Wahrscheinlichkeit von 1:6 bei einem idealen Würfel in unendlichfacher Anwendung.

    Somit ist die von mir getätigte Aussage in Teil 1 in Abweichung Ihres Statements inhaltlich richtig.

    Freundliche Grüsse, Ralf Kannenberg

    Diesen Kommentar: Zitieren
  15. #1165 | ralfkannenberg | 28. Juli 2011, 12:58

    Nein, die Berücksichtigung solcher fundamentaler “Risiken” in den Naturgesetzen selbst führen konsequenterweise in den Stopp aller Aktivitäten.

    Hallo Hans,

    nein, das würde ich nicht sagen: man muss diese Risiken bzw. die zugrundeliegenden Ereignisse lediglich in die richtige Irrtumsmaß-Stufe klassieren und dann die der Stufe entsprechenden Massnahmen ergreifen.

    Freundliche Grüsse, Ralf

    Diesen Kommentar: Zitieren
  16. #1166 | ralfkannenberg | 28. Juli 2011, 13:02

    Zum Würfel: Ein Würfel definiert sich u.a. durch 6 gleiche Flächen –
    gleichgültig ist, wie diese beschriftet sind. Hätte er nur 5 gleiche Flächen, so sprächen wir hier n i c h t über einen Würfel.

    Sehr geehrter Herr Uebbing,

    der Würfel könnte aber eine Nummerierung 0 bis 5 aufweisen. Dann werfen Sie auch keine „6“.

    Freundliche Grüsse, Ralf Kannenberg

    Diesen Kommentar: Zitieren
  17. #1167 | Hans | 28. Juli 2011, 13:15

    Im Wesentlichen geht es darum, dass der Vakuumübergang ein Ereignis sein könnte, welches durch die möglichen Ereignisse eines Würfelwurfs nicht abgedeckt wird.

    Aber gut, halten wir fest, dass Rudolf Uebbing gefordert hat, ab sofort bei jeder menschlichen Aktivität auch die mögliche Veränderung der Naturgesetze mit zu berücksichtigen. Das Universum gewissermaßen auf Sicherheit abzuklopfen. Wo er dann die Grenzen der Sicherheit zieht, wird vermutlich dann völlig willkürlich, interessengeleitet festgelegt.

    Das wird eine richtig schöne neue Welt. 😀 So richtig sicher!

    Diesen Kommentar: Zitieren
  18. #1168 | ralfkannenberg | 28. Juli 2011, 13:19

    #1111 | Rudolf Uebbing | 27. Juli 2011, 18:32 Uhr

    Zur Verdeutlichung:
    Wenn ein mittlerer Fehler / Standardabweichung
    mit “f” bezeichnet werde,
    dann wird zum Beispiel w1 mit w1 +/- f anzugeben
    sein und zu vergleichen sein evtl. mit w2 +/- 10 * f;

    Sehr geehrter Herr Uebbing,

    diese Forderung von Ihnen hat übrigens zur Folge, dass man aktuelle Forschungsdaten nicht für Sicherheitsanalysen verwenden darf. Ist das wirklich Ihr Anliegen ?

    Freundliche Grüsse, Ralf Kannenberg

    Diesen Kommentar: Zitieren
  19. #1169 | Rudolf Uebbing | 28. Juli 2011, 13:37

    Sehr geehrter Herr Kannenberg,

    hier in dem umstrittenen Beispiel (Vakuumsinstabilität)
    ist die tatsächliche Wahrscheinlichkeit ein unbekannter extrem kleiner
    Wert, weil Hochenergiekollisionen von Physikern nur
    teilweise verstanden werden – diese tatsächliche, unbekannte
    Wahrscheinlichkeit ist vor der Beobachtung (sagen
    wir hier ca. 1999) dieselbe wie nach der Beobachtung;

    Der Wert einer zugehörigen Obergrenze verringert sich
    günstigerweise im Laufe der Zeit, weil mehr sicherstellende
    Einzelbeobachtungen vorliegen, d.h. die diskutierte Vakuuminstabilität ist nicht eingetreten.

    Die Lösung ist einfach –
    wir sprechen von der
    b e o b a c h t e t e n Wahrscheinlichkeit und von der
    t a t s ä c h l i c h e n Wahrscheinlichkeit.

    Die beobachtete Wahrscheinlichkeit ist – wie hier – Null,
    die tatsächliche Wahrscheinlichkeit,
    welche maßgeblich unsere Entscheidungen bestimmen muss,
    nach wie vor unbekannt
    (- darauf genau kommt es ja leider an -)
    und lediglich derzeit nur nach oben abgrenzbar, sh. JBSW.

    Auch wenn die b e o b a c h t e t e Wahrscheinlichkeit
    hier im Beispiel beim 10-fachen hintereinander erfolgten Würfeln sich als exakt Null herausgestellt hat, muss eine Projektentscheidung
    (für risikomindernde Maßnahmen)
    sich auf den tatsächlichen Wert der Wahrscheinlichkeiten
    beziehen – in diesem Beispiel beträgt er unverändert
    bei einem ideal guten Würfel exakt 1:6.

    Ich ergänze hier bitte Ihr Zitat Teil 1 um das Wort „beobachtete“:
    “Die b e o b a c h t e t e Wahrscheinlichkeit, dass eine der vergangenen CR-Kollisionen eine Vakuuminstabilität ausgelöst hat, ist also exakt 0%; …” –
    und ergänze weiter:
    Die beobachtete Wahrscheinlichkeit verändert nicht die
    unbekannte t a t s ä c h l i c h e Wahrscheinlichkeit, die im
    Falle des RHIC von den Autoren JBSW mit dem
    Wert 2*10**-36 begrenzt wurde.

    Können wir damit leben ?

    Mit freundlichem Gruß

    Rudolf Uebbing

    Diesen Kommentar: Zitieren
  20. #1170 | Hans | 28. Juli 2011, 13:43

    , weil Hochenergiekollisionen von Physikern nur
    teilweise verstanden werden

    Das ist falsch. Es ist unerheblich, ob wir etwas im Detail verstehen, um aufgrund von Beobachtung etc etwas auszuschließen.

    Aber auch diesen Fehlschluss haben Sie nicht zum ersten Mal im Programm.

    Diesen Kommentar: Zitieren
  21. #1171 | Rudolf Uebbing | 28. Juli 2011, 14:16

    Zu
    #1167 | ralfkannenberg | 28. Juli 2011, 13:19

    Der LSAG-Prozess muss ein dynamischer
    Prozess sein – also eine s t ä n d i g
    betriebene Sicherheitsanalyse.

    Mir ist diese Textstelle, die dies im LSAG-Report 2008
    belegt, leider derzeit nicht geläufig – ich gehe
    aber davon aus, dass die LSAG ihre
    Arbeit als ständigen Prozess ansieht –
    was beruhigend ist, wenn danach strikt
    verfahren wird. Derartige Aktivitäten
    kann ich leider zur Zeit nicht so recht erkennen –
    (wann gab es bitte die letzte publizierte Äusserung
    seitens der LSAG ?).

    Das bedeutet, das in LHC/HEP-Safety-Modellierungen
    ständig neue Messdaten usw. einfließen.
    Diese Daten werden genutzt, um die „Distanz“
    zu kritischen, möglichen physikalischen Parametrisierungen
    zu ermitteln und um danach ggf. die Beobachtungsdichte der
    aktuellen Experimente festzulegen, um nur ausreichend
    gesicherte Resultate in die Safety-Modellierungen
    einfließen zu lassen, d.h. die Konfidenzintervalle zu
    den Werten werden verschärft, welche die „Distanz“ zu kritischen
    Parametrisierungen ausmachen. Dies bedarf freilich
    eines ausgefeilten Regulatoriums, was offenbar
    derzeit beim CERN nicht auszumachen ist (irre ich ?).

    Dies setzt im Falle der gegebenen wissenschaftlichen, beachtenspflichtigen
    Unkenntnis – bei einem derzeit vorhandenem Naturverständnis
    von nur ca. 5 Prozent – ein strategisches Konzept voraus, wofür
    die LSAG zuständig ist bzw. sich dazu machen kann.

    D.h. wenn man in „unchartered waters“ vordringt –
    wie aktiv eingreifenderweise in die Natur
    bei der Hochenergiephysik es der Fall ist –
    ist es überaus angebracht,
    ein kleines Rechenzentrum nur eigens mit
    dieser Safety-Daueraufgabe zu beauftragen.
    (Das sollte die Bedeutung des LHC gut wert sein können.)

    Sie sehen, gerade hier werden neue Forschungsdaten
    gebraucht – die Konfidenzintervalle ergeben sich dabei
    in einem dynamischen Arbeitsprozess. Ein Zeitverzug
    ist freilich unvermeidlich – es gilt, ihn möglichst klein
    zu halten.

    Vielleicht ist ein ständiges wissenschaftliches
    computerisiertes Sicherheits-Controlling
    für einige Leute zur Zeit unvollstellbar! –

    Wir werden sehen,
    zu einer ähnlichen Lösung wird es kommen.

    Lesen Sie, bitte, nach, wie in der Nuklearindustrie
    gearbeitet wird – die PSA-Studien sind b e g l e i t e n d
    zu den Projekten, von der Entwicklung bis zur Realisierung.

    Ist ein derart systematisches, strukturiertes Vorgehen
    (wie PSA: Probalistic Safety Assessment oder
    PRA: Probalistic Risk Assessment)
    bei der rein technischen Realisierung des LHC evtl.
    vernachlässigt worden, so dass es zum zig-Millionen Euro
    teuren Schaden im September 2008 kommen konnte ?

    Kann hier nicht auch daraus die rein wissenschaftliche Seite des
    Gesamtexperimentes LHC gezielt lernen ?

    Sie mögen die Fragen als hart oder vielleicht sogar
    als unverschämt empfinden –
    dies ist aber eine berechtigte Aussensicht des Steuerzahlers.

    Diesen Kommentar: Zitieren
  22. #1172 | Rudolf Uebbing | 28. Juli 2011, 14:24

    #1169 | Hans | 28. Juli 2011, 13:43

    Richtig ist, dass unvollständiges Wissen uns veranlassen muss,
    worst-case-Annahmen heranzuziehen,
    um möglichst gut auf „der sicheren Seite“ zu sein.

    Unvollständiges Wissen gibt es gerade im Falle der hochenergetischen Teilchenkollisionen (z.B. “ u n k n o w n missing enery“ und mehr). Gerade hier soll Beschleunigertechnologie die Wissenslücken
    schließen helfen.

    Diesen Kommentar: Zitieren
  23. #1173 | Hans | 28. Juli 2011, 14:27

    Richtig ist, dass unvollständiges Wissen uns veranlassen muss,
    worst-case-Annahmen heranzuziehen,

    Das hat LSAG besser getan als Sie jemals kapieren werden.

    Das ist allerdings IHR Problem.

    Es ist nach wie vor ein logischer Fehlschluss, man müsse zunächst alle Details verstehen um bestimmte Folgen ausschließen zu können. An der Stelle wäre auch das Stichwort Even if wieder einmal angebracht.

    Was solls, kapieren werden Sie es nie. Ich habe sogar den starken Eindruck, Sie wissen nicht einmal, was Sie eigentlich nun wollen.

    Diesen Kommentar: Zitieren
  24. #1174 | Hans | 28. Juli 2011, 14:29

    Vielleicht ist ein ständiges wissenschaftliches
    computerisiertes Sicherheits-Controlling
    für einige Leute zur Zeit unvollstellbar! –

    Das ist schon vor dem Hintergrund Ihrer eigenen Vorstellung von der „Fehleranfälligkeit“ der physkalischen Theorien und Modelle nur noch als Blödsinn zu bewerten.

    Sie sind nicht einmal in der Lage, Ihre eigenen Vorstellungen mehr oder weniger konsistent zusammenzubringen. Da regiert lediglich die totale Beliebigkeit.

    Das können Sie übrigens in der Tat auch in den Begründungen deutscher Gerichte nachlesen.

    Der even if Ansatz ist da deutlich besser geeignet.

    Diesen Kommentar: Zitieren
  25. #1175 | Hans | 28. Juli 2011, 14:39

    Ist ein derart systematisches, strukturiertes Vorgehen
    (wie PSA: Probalistic Safety Assessment oder
    PRA: Probalistic Risk Assessment)
    bei der rein technischen Realisierung des LHC evtl.
    vernachlässigt worden, so dass es zum zig-Millionen Euro
    teuren Schaden im September 2008 kommen konnte ?

    Wie wir wissen ist es ja bei der Nuklearindustrie noch nie zu einem millionenteurem Schaden gekommen.

    Mal abgesehen davon, dass Sie es sich sparen sollten, diese billigen Vergleiche mit der Kernenergie in demagogischer Absicht immer wieder durch die Hintertür einzubrigen. Weiterhin interessant, wie Sie jetzt auf einmal ein technisches Problem, dessen Ausbleiben bei einer derartig hochkomplexen Maschine eher schon zu erwarten gewesen ist, in einen Topf werfen mit den gänzlich anders gelagerten physikalischen Abschätzungen.

    Was wiederum die These bestätigt, dass Sie, vielleicht unbewusst, vielleicht bewusst, ein mieser kleiner Demagoge sind.

    Diesen Kommentar: Zitieren
  26. #1176 | Hans | 28. Juli 2011, 14:53

    „dessen Ausbleiben bei einer derartig hochkomplexen Maschine eher schon zu erwarten gewesen ist,“

    Natürlich muss es heißen:

    „dessen Eintritt“

    Diesen Kommentar: Zitieren
  27. #1177 | Solkar | 28. Juli 2011, 15:13

    Herr Übbing,

    ich hatte gestern bereits darauf hingewiesen, dass derartige Debatten in „Wissenschafts-Prosa“ dazu tendieren, sich im Kreis zu drehen und eine strengere Formalisierung angeregt.

    Warum rechnen Sie Ihre Modelle nicht formal korrekt vor, wenn jene Ihrer Ansicht nach überzeugend sind und die Sache Ihnen so wichtig ist?

    Grüsse,

    S.

    Diesen Kommentar: Zitieren
  28. #1178 | Rudolf Uebbing | 28. Juli 2011, 15:39

    Ein paar Gedanken zu einer Analyse auf „even-if“-Basis:

    Die Schlussfolgerungen auf even-if-Niveau
    entbehren leider wichtiger entscheidender
    Informationen wie Verlässlichkeitsangaben –
    so können sie eine Sicherheit lediglich vortäuschen,
    die tatsächlich nicht mit „even-if“ erreichbar ist.

    Die PSA-Methodik
    (PSA: Probalistik Safety Asssessment)
    ist hier einfach die bessere Beurteilungstechnik,
    weil sie m e h r Informationen berücksichtigt.

    Dies bringt zwar Konfidenzintervalle zum
    Vorschein
    – also zugehörige Bandbreiten des möglichen Geschehens -,
    was vielleicht im ersten Moment
    mehr nach Aussagenunsicherheit sieht,
    was aber bestens den tatsächlichen (unsicheren)
    Wissensstand abbildet. Gerade eine vorhandene, unvermeidliche
    Unsicherheit gilt es, n i c h t unter den Tisch fallen zu lassen.

    PSA kann durchaus als eine wesentliche
    Verallgemeinerung von „even-if“-geprägten
    Analysen verstanden werden.

    Konfidenzintervalle sind die Realität einer konsequenten,
    einer umfassenden Beurteilung – d.h. Berücksichtigung und Auswertung von Verlässlichkeiten.

    Die ja/nein-Logik (Aussagenlogik)
    kommt mit weniger Eingangsdaten
    als Eingangsinformation aus,
    bildet aber n i c h t die tatsächliche Ungewissheit
    des Naturverständnisses ab – wie auch,
    es fehlt ja die Berücksichtigung der Verlässlichkeitsangaben!

    Diesen Kommentar: Zitieren
  29. #1179 | Hans | 28. Juli 2011, 16:18

    Die Schlussfolgerungen auf even-if-Niveau
    entbehren leider wichtiger entscheidender
    Informationen wie Verlässlichkeitsangaben –
    so können sie eine Sicherheit lediglich vortäuschen,
    die tatsächlich nicht mit “even-if” erreichbar ist.

    Das ist eine Nullaussage, deren Begründung Sie seit Jahren schuldig bleiben.

    Diesen Kommentar: Zitieren
  30. #1180 | Solkar | 28. Juli 2011, 16:32

    Herr Übbing,

    warum rechnen Sie denn jene „Verlässlichkeitsangaben“ für die 1E47er Stichprobe nicht einfach mal selbst aus und präsentieren Ihre Rechnung hier?

    Diesen Kommentar: Zitieren
  31. #1181 | Rudolf Uebbing | 28. Juli 2011, 16:51

    Zu #1176 | | 28. Juli 2011, 15:13:

    Wie nachgelesen werden kann, sind PSA-Studien – wo hier sogar noch zusätzliche Komponenten zu entwickeln und anzupassen sind – eh sehr aufwendig.

    Im Falle der Arbeit von Giddings und Mangano ist gut denkbar, dass die Bearbeitung und Bewertung von astrophysikalischen und astronomischen Verlässlichkeitsangaben (zu Stellarstatistiken etc. …) eine Erweiterung der Autorenschaft um z.B. spezialisierte Astronomen erfordert hätte, um einige Konfidenzintervalle und Irrtumspotenziale korrekt zu interpretieren und zu quantifizieren. Soviel Arbeitszeit stand u.U. nicht mehr
    zur Verfügung angesichts des LHC-Starts im Sept. 2008.

    Die Frage, wie sicher sind denn unsere Ausgangsdaten,
    und welche Auswirkungen hat dies auf die Verlässlichkeit unserer
    Resultate – diese Fragestellung finde ich leider nicht abgearbeitet vor.

    Diesen Kommentar: Zitieren
  32. #1182 | ralfkannenberg | 28. Juli 2011, 16:59

    hier in dem umstrittenen Beispiel (Vakuumsinstabilität)
    ist die tatsächliche Wahrscheinlichkeit ein unbekannter extrem kleiner
    Wert, weil Hochenergiekollisionen von Physikern nur
    teilweise verstanden werden – diese tatsächliche, unbekannte
    Wahrscheinlichkeit ist vor der Beobachtung (sagen
    wir hier ca. 1999) dieselbe wie nach der Beobachtung

    Sehr geehrter Herr Uebbing,

    selbstverständlich, aber das war nicht die Frage von galileo2609.

    Bei der Beurteilung statistischer Aussagen muss man eben sehr grosse Sorgfalt walten lassen, sonst wird die Antwort falsch. – Und zusätzlich irreführend, weil kaum ein stiller Mitleser die ganze Geschichte der vergangenen 1000 Blogbeiträge kennt.

    Was hier im Kleinen gilt, gilt übrigens auch im Grossen: Es ist überhaupt kein Problem, eine Risikoanalyse so zu verfassen, dass kein Entscheidungsträger ihre Aussagekraft versteht. Das ist bei direkten analytischen Nachrechnungen indes nicht so, es sei denn, Sie fordern von einer Fragestellung der Stufe n ein Irrtumsmaß der Stufe <= (n-1).

    Freundliche Grüsse, Ralf Kannenberg

    Diesen Kommentar: Zitieren
  33. #1183 | Solkar | 28. Juli 2011, 17:18

    Herr Übbing, disponieren Sie hier nicht die Arbeitszeit der LSAG oder Dr. Giddings; sowas gehört sich nicht.

    Sie selbst sind gefordert, Ihre Ausführungen mathematisch zu untermauern.

    Und jetzt will ich kein Geschwurbel als Rückantwort lesen, sondern ich will zumindest einen Ansatz von Ihnen sehen.

    Nicht zum Paper von G&M, nicht zu Enceladus, nicht zu weissen Elefanten, sondern zur Beurteilung der Verlässlichkeit einer exakten Stichprobe der Mächtigkeit 1E47.

    War das jetzt deutlich genug?

    Sie brauchen keine Analysis betreiben, keine numerischen Algorithmen entwickeln oder dergleichen; falls sowas notwendig werden sollte, helf ich Ihnen dann schon Ihnen geeignet weiter.

    Aber einen zumindest einen Ansatz will ich mal von Ihnen sehen; Suchbegriffe, die brauchen könnten, sind u.A.
    „Bernoulli-Prozess“ und „Maximum Likelihood“.

    Diesen Kommentar: Zitieren
  34. #1184 | ralfkannenberg | 28. Juli 2011, 17:30

    #1170 | Rudolf Uebbing | 28. Juli 2011, 14:16 Uhr

    Der LSAG-Prozess muss ein dynamischer
    Prozess sein – also eine s t ä n d i g
    betriebene Sicherheitsanalyse.

    Sehr geehrter Herr Uebbing,

    gewiss nicht: Wenn man vor 100 Jahren eine Sicherheitsanalyse erstellt hat, dass Fahrstühle nicht abstürzen, sondern im Absturzfall ein mechanischer Notbremsmechanismus aktiviert wird (ich kenne mich hier mit den Details natürlich nicht aus), so wird es nicht notwendig sein, diese Sicherheitsanalyse ständig zu aktualisieren !

    Freundliche Grüsse, Ralf Kannenberg

    Diesen Kommentar: Zitieren
  35. #1185 | ralfkannenberg | 28. Juli 2011, 17:38

    Die Schlussfolgerungen auf even-if-Niveau
    entbehren leider wichtiger entscheidender
    Informationen wie Verlässlichkeitsangaben –
    so können sie eine Sicherheit lediglich vortäuschen,
    die tatsächlich nicht mit “even-if” erreichbar ist.

    Sehr geerhter Herr Uebbing,

    natürlich nicht: Bei „even if“ berücksichtigt man natürlich Ihre Konfidenzintervalle. Eine einfache Überprüfung zeigt, dass das bei einem 3000x höheren Lebensalter von Neutronensternen gar nicht erforderlich ist: Nehmen Sie einfach die resultierenden maximal 300000 Jahre, addieren Sie dazu meinetwegen 10% Konfidenzintervall und vergleichen Sie das mit 1 Milliarde Jahre, von der Sie 10% Konfidenzintervall abgezogen haben.

    Ich habe das für Sie gemacht: Der Faktor reduziert sich von 3333 auf 3267. Beides ist übrigens grösser als der von mir genannte Faktor 3000.

    Freundliche Grüsse, Ralf Kannenberg

    Diesen Kommentar: Zitieren
  36. #1186 | Rudolf Uebbing | 28. Juli 2011, 17:40

    #1179 | Solkar | 28. Juli 2011, 16:32

    Hier gem. der Anfrage v. Solkar ein kurz
    skizzierter Ansatz für die Beschreibung der
    Auswirkungen von Fehlern in den Ausgangsdaten.

    Damit hier die Fehlerfortpflanzung
    einmal simpel verdeutlicht werden kann, greife ich diese Frage auf
    und deute knapp auf rechnerischem Weg
    an, wie Fehler sich auswirken.

    Die Angabe zur Wahrscheinlichkeitsobergrenze für eine
    hypothische RHIC-verursachte Vakuuminstabiltität
    wurde von Jaffe, Busza, Sandweiss und Wilczek mit
    dem Wert von 2*10**-36 dokumentiert;
    ich kürze mit „C“ ab – wie folgt:

    C:=2*10**-36

    Die Fehlerhaftigkeit dieses Wertes C soll beurteilt werden.
    Hier deute ich sie als mittleren Fehler, den ich abkürze mit:
    +/- c .

    Die planerische Anzahl der Hochenergiekollisionen im RHIC
    beträgt 2*10**11 , hier abgekürzte mit A.
    (Die Unsicherheit des Wertes A oder eines aktualisierten
    Wertes von A ließe sich nun nach Jahren im Nachhinein
    besser beurteilen.)
    Der zugehörigen Wert der Unsicherheit von A
    sei als mittlerer Fehler deutbar,
    ich kürze ihn ab mit:
    +/- a.

    Die im Universum bis heute erfolgten energetisch
    vergleichbaren Teilchenkollision werden mit
    der Anzahl 1*E47 angesetzt; ich kürze mit B ab.
    Der mittlere Fehler hierzu sollte ggf. in der Quelle,
    angegeben bei JBSW, auffindbar sein,
    diesen kürze ich ab mit:
    +/- b.

    Nun gilt gemäßt JBSW:

    C = A / B, ein Anteil, der zugleich als
    Obergrenze einer bestimmten Wahrscheinlichkeit
    von JBSW eingeführt wird.

    Nun, wie wirken sich die Fehlerhaftigkeiten von
    A und B auf C auf ?

    Antwort: Hier kann man sich einen ersten Eindruck
    verschaffen, in dem man

    C +/- c = ( A +/- a) / ( B +/- b) einmal
    in allen Kombinationen durchrechnet.

    Professionell geschieht dies durch Anwendung
    des Fehlerfortpflanzungsgesetzes, was zugleich dabei
    hilft, Vertrauensintervalle zu ermitteln.

    Man kann sich vorstellen, dass in längeren Schlussfolgerungsketten derartige Fehlerauswirkungen
    u.U. sich bedeutsam aufsummieren können –

    daher heißt es hier, nachzuweisen,

    a) dass man unter gewissen
    Toleranzen bleibt (es wurden leider keine diskutiert
    und festgesetzt)

    und
    b) ein ausreichend hohes Signifikanzniveau des Schlussresultates
    zu ermitteln (auch die Festsetzung eines erforderlichen
    Signifikanzniveaus/Wertes – wie in der Hypothesenbewertung üblich – ist nicht geschehen.)

    Man sieht leicht ein, eine reine „even-if“-Methodik ist
    ein tatsächlich gebrechlicher Krückstock,
    weil sie bestimmte, entscheidend wichtige Angaben n i c h t
    transportiert.

    Diese Methodik mit einer ja/nein-Antwort
    auf Basis der zweistelligen Aussagenlogik kann
    letzten Endes eine Sicherheit vortäuschen,
    welche tatsächlich nicht existieren muss.

    Eine Wahrscheinlichkeitslogik ist bei
    weitem aussagekräftiger als simpel angewendete
    Aussagenlogik – die Unsicherheitsangaben aus einer PSA-Studie
    garantieren am besten für eine reale Sicherheit
    – dies zu verstehen, ist offenbar nicht leicht.

    Diesen Kommentar: Zitieren
  37. #1187 | ralfkannenberg | 28. Juli 2011, 17:44

    Die ja/nein-Logik (Aussagenlogik)
    kommt mit weniger Eingangsdaten
    als Eingangsinformation aus,
    bildet aber n i c h t die tatsächliche Ungewissheit
    des Naturverständnisses ab – wie auch,
    es fehlt ja die Berücksichtigung der Verlässlichkeitsangaben!

    Sehr geehrter Herr Uebbing,

    das ist im Allgemeinen unzutreffend: eine analytische Nachrechnung kann durchaus mehr Eingangsinformationen benötigen als eine vage Risikoanalyse. Muss nicht, kann aber.

    Es gibt also keinen Zusammenhang zwischen der Anzahl der Eingangsinformationen und der verwendeten Methodik (analytische Nachrechnung oder Risikoanalyse).

    Freundliche Grüsse, Ralf Kannenberg

    Diesen Kommentar: Zitieren
  38. #1188 | ralfkannenberg | 28. Juli 2011, 17:50

    Im Falle der Arbeit von Giddings und Mangano ist gut denkbar, dass die Bearbeitung und Bewertung von astrophysikalischen und astronomischen Verlässlichkeitsangaben (zu Stellarstatistiken etc. …) eine Erweiterung der Autorenschaft um z.B. spezialisierte Astronomen erfordert hätte, um einige Konfidenzintervalle und Irrtumspotenziale korrekt zu interpretieren und zu quantifizieren. Soviel Arbeitszeit stand u.U. nicht mehr
    zur Verfügung angesichts des LHC-Starts im Sept. 2008.

    Sehr geehrter Herr Uebbing,

    nein, das ist nichtgut denkbar„: Diese Angaben, die Sie benötigen, finden Sie in den referenzierten Publikationen.

    Nehmen Sie als Beispiel meine obige Rechnung von heute 17:38 Uhr und beachten Sie dabei bitte, dass diese Beispielrechnung eine irrsinnig hohen Fehler von 10% verwendet.

    Freundliche Grüsse, Ralf Kannenberg

    Diesen Kommentar: Zitieren
  39. #1189 | Rudolf Uebbing | 28. Juli 2011, 17:57

    Zu #1184 | ralfkannenberg | 28. Juli 2011, 17:38:

    Vielen Dank für den von Ihnen demonstrierten Sicherheitsfaktor,
    der zugleich als ein restlicher Unsicherheitsfaktor
    gedeutet werden kann.

    Professionalisierte Zusatzkalkulationen dieser Art, systematisiert und strukturiert, hätte ich in einer bedeutsamen Untersuchung wie bei G&M erwartet – dazu mag wohl aber keine Zeit da gewesen sein, die Ergebnisse im Detail auf einige Unwägbarkeiten quantifizierend abzuklopfen.

    Zusätzliche Variationen der Eingabedaten
    werden den Sicherheitsfaktor beeinflußen.

    Letzten Endes muß ein Sicherheitsfaktor umgerechnet werden können
    in statistisch gängig, gebräuchliche Maßzahlen – z.B. Irrtumsgrenze
    kleiner als 10**-x –
    damit sie risikotechnisch verarbeitet werden können.

    Diesen Kommentar: Zitieren
  40. #1190 | ralfkannenberg | 28. Juli 2011, 18:01

    C +/- c = ( A +/- a) / ( B +/- b)

    Sehr geehrter Herr Uebbing,

    nehmen wir wieder einmal die 10%, also a=10%*A und b=10%*B.

    Wenn ich Sie richtig verstanden haben suchen Sie eine Wahrscheinlichkeitsobergrenze; also müssen wir den Zähler möglichst gross und den Nenner möglichst klein machen. Also wird der Zähler mit 1.1 und der Nenner mit 0.9 multipliziert, das liefert einen Faktor 1.22.

    Somit erhöht sich der Wert von C von 2*10**-36 auf 2.44*10**-36.

    Und nun ? Geht die Welt jetzt wegen des RHIC unter ?

    Freundliche Grüsse, Ralf Kannenberg

    Diesen Kommentar: Zitieren
  41. #1191 | Rudolf Uebbing | 28. Juli 2011, 18:16

    Die bei G&M angewendete „even-if“-Analysetechnik
    berücksichtigt keine quantifizierenden Verlässlichkeitsangaben –
    ein am Ende stehendes Resultat m u s s
    deswegen nachgefragt werden, zu dem, welches denn die
    Auswirkungen der nicht berücksichtigten Angaben
    sind;
    diese unentbehrliche Art von Angaben sind m i t e n s c h e i d e n d
    über die Güte des Endergebnisses.

    Diesen Kommentar: Zitieren
  42. #1192 | Rudolf Uebbing | 28. Juli 2011, 18:23

    Sehr geehrter Herr Kannenberg,

    danke dafür, dass Sie die abstrakte Rechnung
    zu der JBSW-Wahrscheinlichkeitsobergrenze
    mit Beispielzahlen füllen. Wir nähern
    uns einem Realismus – der heißt hier Bewusstmachung
    von gewissen Unsicherheiten; dies allein halte ich
    für wichtig genug.

    Mit freundlichem Gruß

    Rudolf Uebbing

    Diesen Kommentar: Zitieren
  43. #1193 | Hans | 28. Juli 2011, 18:25

    Uebbing, hören Sie auf rumzuschwafeln, zeigen Sie lieber, dass sich an der Schlussfolgerung von G&M irgendetwas ändern würde.

    Ihre Vermutungen bezüglich der angeblichen Auslassungen sind übrigens gänzlich irrelevant. G&M haben ihre Quellen referenziert. In diesen sind jeweils Fehler nachlesbar. Wären diese Fehler relevant gewesen, hätte man die Beispiele vermutlich gar nicht erst herangezogen.
    usw.

    Ich habe nach wie vor den starken Eindruck, dass Sie die Arbeit von Giddings und Mangano weder richtig gelesen noch verstanden haben.

    Diesen Kommentar: Zitieren
  44. #1194 | Hans | 28. Juli 2011, 18:29

    Welche Unsicherheiten wollen Sie bewusst machen? Die Unsicherheit, dass in einer von Menschen gebauten Maschine auf einmal Naturgesetze ausser Kraft gesetzt werden? Das dort auf einmal Prozesse in Gang gesetzt werden, welche die Natur mit vielfach höheren Energien selbst nicht starten konnte?

    Nun ja, es ist schon peinlich, dass Sie es in drei Jahren Geschwafel nicht einmal geschafft haben, auch nur die zwei Beispielrechnungen von Herrn Kannenberg oben selbst zu produzieren. Mehr als peinlich.

    Aber gut, dann hätte sich ja evt gezeigt, dass Ihre „Kritik“ irrelevant sein könnte…und das passt ja nicht zur Agitationsabsicht.

    Diesen Kommentar: Zitieren
  45. #1195 | Solkar | 28. Juli 2011, 18:29

    Herr Übbing,

    ihr Beitrag #1185 28. Juli 2011, 17:40 war ein methodischer Riesenschritt in Richtung eines konstruktiven Diskussionsverlaufs (und ich freue mich, dass Sie mal „mitmachen“).

    Aber inhaltlich ging’s am Thema vorbei; eine Teilschuld daran nehme aber ich auf mich, weil ich mich vlt. missverständlich ausgedrückt hatte.

    Also erneut:

    Wir betrachten die 1E47 Stichprobe einfach mal, wie gesagt, als exakt; „Messfehler“, „Irrtümer“ und dergleichen bleiben zunächst ausser Ansatz.

    Wie zuverlässig ist eine Nullrisko-Schätzung
    (Katrastrophenereignis ω, Wahrscheinlichkeit p)
    p(ω) = 0
    auf Basis der 1E47?

    Grüsse,

    S.

    Diesen Kommentar: Zitieren
  46. #1196 | Rudolf Uebbing | 28. Juli 2011, 18:52

    Meine Beschreibung:

    „Der LSAG-Prozess muss ein dynamischer
    Prozess sein – also eine s t ä n d i g
    betriebene Sicherheitsanalyse.“

    wurde oben mit den technischen Sicherheitsbedürfnissen
    eines Fahrstuhles verglichen.

    Generaldirektor Dr. Heuer konstatierte sinngemäß
    erst vor kurzem in der Welt am Sonntag,
    dass bei derzeit 5 Prozent Naturverständnis im Sinne
    unserer Forschungen uns auch
    die Natur wohl gesonnen sein möge.

    Angesichts dessen, dass möglicherweise
    – unter nicht natürlichen Verhältnissen –
    jetzt die „Dunkle Materie“,
    vielleicht ungewollt,
    ein Untersuchungsgegenstand bei
    aktivem Einwirken in die natürlichen Verhältnisse
    werden kann

    und

    n u r derzeit 1 / 20 Naturverständnis gegeben ist,
    verstehe man doch bitte die Gedanken, dass

    a)
    hier ein Sicherheitsvergleich mit Fahrstühlen zu hinken scheint,

    und

    b)
    dass z.B. Automatisierungen des Sicherheitsprozesses
    zum Thema gemacht werden sollten / müssen –
    als Teil einer ständigen Aufgabenerledigung der LSAG.

    Meine Prognose:
    In etwa einem Jahrzehnt wird
    ein kleines separates Rechenzentrum am CERN
    eine derartige ständige Analyse übernehmen.

    (Nur einmal am Rande gefragt:
    Im Weltall wird es nicht vorkommen,
    dass relativ langsame, ‚dunkle‘ Materieteilchen
    auf ultrakaltes, superfluides Material stoßen –
    am CERN ist dies möglich – gibt
    es dafür Modellrechnungen ? )

    Diesen Kommentar: Zitieren
  47. #1197 | ralfkannenberg | 28. Juli 2011, 18:55

    Sehr geehrter Herr Uebbing,

    spielen wir nun mal ein bisschen mit den Weissen Zwergen von G&M.

    Das ist das Kriterium: M > ca. m_sun und B_p < "few" 10**5 G und T > ca. 100 Myr.

    Das sind die Daten:

    WD0346-011: M = 1.25m_sun, B_p < 1.2*(10**5 G), T ca. 100 Myr
    WD1022-301: M = 1.2m_sun, B_p < 1.2*(10**5 G), T grösser ca. 100 Myr
    WD1724-359: M = 1.2m_sun, B_p < 1.2*(10**5 G), T ca. 150 Myr
    WD2159-754: M = 1.17m_sun, B_p < 3*(10**4 G), T ca. 2.5 Gyr
    WD0652-563: M = 1.16m_sun, B_p < 2.7*(10**5 G), T ca. 100 Myr
    WD1236-495: M = 1.1m_sun, B_p < 3*(10**4 G), T grösser ca. 1 Gyr
    WD2246+223: M = 0.97m_sun, B_l = (1.5 +/- 13.8)*(10**3 G), T ca. 1.5 Gyr
    WD2359-434: M = 0.98m_sun, B_l = 3*(10**3 G), T ca. 1.5 Gyr

    Bei den beiden letzten muss man eine Umformung gemäss [62], Formel (2) machen; ich habe keine Lust dazu; zudem sind die „ein bisschen“ schwach bei ihrer Masse; also lassen wir die beiden kurzerhand mal weg.

    Nun rechnen wir es wieder einmal mit absurd hohem Beobachtungsfehler, also 10%.

    Bei der Masse muss man also 10% abziehen; das schaffen alle 6 verbleibenden Weisse Zwerge. Hier also keine Einschränkung.

    Beim Magnetfeld muss man 10% draufschlagen; ich weiss nicht, was „few“ bedeutet und setze es deswegen mal zu 2. Lediglich der 5.Weisse Zwerg schafft das nicht, er kommt mit den 10% mehr auf knapp 3*10**5 Gauss. Sollte „few“ auch noch 3 bedeuten, würde er das Kriterium mit 10%-Fehler ebenfalls noch erfüllen.

    Beim Lebensalter muss man wieder 10% abziehen, was Unsinn ist, denn das Auskühlalter ist genauer bestimmbar als 10%, aber spielen wir das nun dennoch so durch. Dann kriegen der 1., 2. und wieder der 5.Weisse Zwerg ein Problem.

    Fazit: Trotz absurd hohem Fehlerwert erfüllen immer noch 3 Weisse Zwerge (Nr.3, 4 und 6) die Kriterien; zwei (Nr.1 und 2) fallen knapp beim Lebensalter durch und einer (Nr.5) knapp beim Lebensalter und beim Magnetfeld der Interpretation der „few“.

    Und nun ? Ist das Argument der Weissen Zwerge jetzt nicht mehr gültig ?

    Freundliche Grüsse, Ralf Kannenberg

    Bemerkung: Wegen den grösser- und kleiner-Zeichen musste ich im Text zweimal das „grösser“ ausschreiben, weil es sonst als Tag interpretiert worden wäre.

    Diesen Kommentar: Zitieren
  48. #1198 | Hans | 28. Juli 2011, 19:02

    dass bei derzeit 5 Prozent Naturverständnis im Sinne

    Zitieren Sie gefälligst im Zusammenhang! Galileo hatte Sie schon auf Ihre verzerrende Darstellung aufmerksam gemacht.

    Agitator!

    Diesen Kommentar: Zitieren
  49. #1199 | Hans | 28. Juli 2011, 19:04

    Und der Rest ist wieder einmal nur sinnloses Blabla. Nur weil wir nicht alles im Detail wissen, heißt das nicht, dass alles möglich ist.

    Auch Wechselwirkungen mit Dunkler Materie, wie Sie Ihnen gerade vorzuschweben scheint, ist bereits ausgeschlossen, schauen Sie in den Vergangenheitslichtkegel.

    Diesen Kommentar: Zitieren
  50. #1200 | Rudolf Uebbing | 28. Juli 2011, 19:05

    #1194 | Solkar | 28. Juli 2011, 18:29

    Ihre Frage, bei welcher Signifikanz ein
    Nullrisiko angenommen werden kann,
    ist hoch interessant –
    sicher haben Sie eine
    Antwort auf Basis spezieller Verteilungen
    der Statistik und weiter dazu sich
    ergebende Nebenbedingungen sich überlegt.

    Die bereits vorhandene
    Ausgangsmenge von 10**47 ist enorm
    (seien es die oben angesprochenen gezogenen,
    weißen Kugeln ? – sh. haereticus);
    der vorhandene Gesamtvorrat möglicherweise
    noch viel größer und unbekannt.

    Vielleicht fangen wir mit einer gezogenen
    Ausgangsmenge –
    nur bestehend aus 1 Element an – eine
    weiße Kugel (das Universum ist mithin extrem jung).

    Wollen Sie, bitte, Ihr Wissen preisgeben ?

    Diesen Kommentar: Zitieren

Kommentare sind geschlossen.