Skip to content

Otto E. Rössler – Anthologie eines Welträtsellösers

von Redaktion am 6. Dezember 2010

Otto E. Rössler reibt sich nun bereits seit Jahren an den Institutionen der akademischen Wissenschaft. Neben bizarren Aktionen setzt der wissenschaftliche Aussenseiter und Mentor des LHC-Widerstands über Dekaden hinweg auch auf eine Welterklärung, die mit skurrilen „Theorien“ die Wissenschaft umkrempeln soll. RelativKritisch hatte dem Tübinger Mediziner angeboten, seine grenzwertigen Texte kommentiert zu veröffentlichen, wenn er keine anderen Möglichkeiten mehr hat. Otto E. Rössler hat dieses Angebot jetzt zum ersten Mal genutzt.

Otto E. Rössler, Baden-Baden 2010

Otto E. Rössler, Baden-Baden 2010

RelativKritisch stellt mit dieser speziellen „Anthologie eines Welträtsellösers“, Otto E. Rössler einen Platz für eine Veröffentlichung seiner Texte und der freien Diskussion dazu unzensurierten Raum zur freien Verfügung. Dabei sind lediglich die allgemeinen rechtlichen Pflichten des Betreibers des Portal RelativKritisch und die von ihm übergreifend erstellten Nutzungsbedingungen zu beachten. Die Redaktion von RelativKritisch behält sich im Rahmen dieser Voraussetzungen Moderationsmassnahmen vor.

Otto E. Rössler hat einen ersten Beitrag und dessen eigene englische Übersetzung auf RelativKritisch veröffentlicht. Seinen Text „Fröhliche Wissenschaft mit lachend in Kauf genommener nicht unwahrscheinlicher Todesfolge für alle“ und die ersten Kommentare dazu veröffentlichen wir nachstehend.

  • Diskutiere über Otto E. Rössler und seine „Anthologie eines Welträtsellösers“ auch im Forum Alpha Centauri!

RelativKritisch E-Edition

 Als ePub herunterladen 1998

Die Artikel von RelativKritisch gibt es auch als E-Book im ePub-Format zum kostenlosen Download!

Ähnliche Beiträge

1.318 Kommentare |
 
  1. #1101 | Hans | 27. Juli 2011, 12:34

    Aber Herr ‚Uebbing‘, jetzt wird schon wieder hin und her gesprungen.

    Bleiben Sie doch bitte mal bei einem Thema. Alles andere schadet der Diskussion. 😀

    Diesen Kommentar: Zitieren
  2. #1102 | Hans | 27. Juli 2011, 12:36

    w e i l eine völlig a n d e r e Geschwindigkeitsverteilung
    der LHC-Kollisionsprodukte im Gegensatz zur Kosmischen Strahlung sich ergibt –
    das sind “Basics”.

    Ja, basics, welche Sie unter Missachtung der tatsächlichen Gegebenheiten im Experiment bis heute nicht ansatzweise nachvollzogen haben.

    Spielt übrigens immer noch keine Rolle fürs Vakuum.

    Diesen Kommentar: Zitieren
  3. #1103 | Hans | 27. Juli 2011, 13:12

    Uebbing, ist Ihnen eigentlich wirklich klar, dass Sie hier von „Risiken“ sprechen, die etwa dem „Risiko“ entsprechen, dass ein Apfel eines Tages von selbst an den Baum zurückhüpft?

    Vielleicht merken Sie es ja jetzt.

    Diesen Kommentar: Zitieren
  4. #1104 | Solkar | 27. Juli 2011, 14:36

    Es ist hier jetzt eine erhebliche Menge physikalischer „Prosa“ verfasst worden.

    Derartige „Prosa“, also natursprachliche Formulierung, birgt immer die Gefahr der Mehrdeutigkeit; ausserdem tendieren solche Diskussionen dazu, sich, v.a. mangels Falsifizierbarkeit, im Kreis zu drehen.

    Deshalb möchte ich anregen, dass die diskutierten Modelle formal weiterentwickelt werden.

    Grüsse,

    S.

    Diesen Kommentar: Zitieren
  5. #1105 | Rudolf Uebbing | 27. Juli 2011, 15:37

    Zu #1102 | Hans | 27. Juli 2011, 13:12

    „… ist Ihnen eigentlich wirklich klar, dass Sie hier von “Risiken” sprechen, die etwa dem “Risiko” entsprechen, dass ein Apfel eines Tages von selbst an den Baum zurückhüpft?“

    Wenn diese Frage impliziert, dass wir ab jetzt in einem Konsens
    über einen möglichen Risikowert sprechen, der mathematisch nicht exakt gleich Null ist,
    d.h. mit genau diesem Wert Null n i c h t
    nachgewiesen werden kann,
    hätten wir einen riesigen gedanklichen
    Fortschritt erreicht (wir beide).

    Diesen Kommentar: Zitieren
  6. #1106 | Hans | 27. Juli 2011, 16:12

    Die Frage ist eher, was Sie damit anfangen wollen. In der Konsequenz müssten Sie nicht nur den LHC sondern auch das Universum verbieten. 😀

    Diesen Kommentar: Zitieren
  7. #1107 | Rudolf Uebbing | 27. Juli 2011, 16:59

    Wenn wir diesen Konsens haben
    – also: Collider-Nullrisiko wissenschaftlich nicht beweisbar -,
    der leider von entscheidender Stelle nicht zugestanden wird,
    (sh. hierzu J. Engelen, CERN, The New Yorker v. 14.5.2007),
    können wir mit der nächsten Überlegung beginnen.

    Frage:
    Wenn ein Nullrisiko nicht nachweisbar ist,
    können Risikoobergrenzen bestimmt werden ?

    Meine Antwort: Ja.

    Bislang wurden mehrere Risikoobergrenzen
    bestimmt, die leider noch nachgearbeitet werden müssen.

    Zeigen Sie doch, bitte, die Textstellen im LSAG-Report
    2008 auf, die Risikoobergrenzen näher quantifizieren.

    (Einen generellen Forschungsstop will definitiv niemand,
    soweit ich sehe –
    eine realistische Beurteilung Risikoanalyse
    wird jedoch zu einer
    nützlichen Weiterentwicklung des LHC-Experimentes
    führen können.)

    Diesen Kommentar: Zitieren
  8. #1108 | ralfkannenberg | 27. Juli 2011, 17:03

    Aktualisierung der Thesen 1-5

    Sehr geehrter Herr Uebbing,

    ich will nun nochmals meine bisherigen Thesen 1-5 aktualisieren, d.h. das Wort „Restrisiko″ durch den Begriff ″Irrtumsmaß″ ersetzen; dieser Begriff ist etwas allgemeiner und vor allem auch handlicher als der zuvor angekündigte Begriff einer ″Irrtums-Wahrscheinlichkeit″ bzw. gar ″Irrtums-Eintrittswahrscheinlichkeit″.

    Vorsicht: Ein Maß ist ein allgemeinerer Begriff als eine Wahrscheinlichkeit; insbesondere ist es zwar grösser gleich 0, liegt aber nicht zwischen 0 und 1. Es ist aber kein Problem, in diesem Kontext den Massbegriff auf eine Wahrscheinlichkeit zu erweitern und diese entsprechend auf einen Wert zwischen 0 und 1 umzurechnen, indem man es etwas salopp gesprochen durch das Maß(100%) dividiert. – Man sehe mir bitte nach, dass ich den in der Schweiz nicht vorhandenen Buchstaben ″ß″ nur im Zusammenhang mit Maßen verwende.

    Der besseren Übersichtlichkeit halber: Meine Thesen 1 und 2 habe ich im Kommentar #1036 von 26. Juli 2011, 18:22 Uhr formuliert, These 3 im Kommentar #1044 von 26. Juli 2011, 20:17 Uhr, These 4 im Kommentar #1053 von 26. Juli 2011, 21:47 Uhr und These 5 im Kommentar #1064 von 27. Juli 2011, 10:08 Uhr.

    These 1: elementare mathematische Irrtumsmaße wie add(2,3) ungleich 5 oder succ(2) ungleich 3 haben einen Wert echt grösser als 0. Es ist aber irreführend, auszusagen, dass keine 100%-ige Sicherheit bezüglich des Ergebnisses vorliegen würde.

    These 2: Völlig analog zur These 1 kann man neben einem mathematischen Irrtumsmaß weitere Irrtumsmaße definieren: physikalisches Irrtumsmaß, ingenieurmässiges Irrtumsmaß und verhaltensweisen-bezogenes Irrtumsmaß. Diese jeweils in „entsprechener Basis-Komplexität″. Sei ersteres ″Irrtumsmaß Stufe 1″ genannt, zweiteres ″Irrtumsmaß Stufe 2″, entsprechend auch Stufe 3 und Stufe 4. Zu einem späteren Zeitpunkt wird es sich möglicherweise als zweckmässig erweisen, hier weitere Stufen einzuführen.

    Diese Stufen sind zunächst einmal nur vage definiert; dennoch lässt sich hier folgende Grössenrelation bilden:

    Irrtumsmaß Stufe 1 (mathematisch) < Irrtumsmaß Stufe 2 (physikalisch) < Irrtumsmaß Stufe 3 (ingenieurmässig) < Irrtumsmaß Stufe 4 (verhaltensweisen-bezogen) ?

    These 3: Jede Irrtumsmaß Stufe aus These 2 benötigt eigene geeignete Methoden, um Gefahren zu bestimmen.

    These 4: Eine Methode zur Eruierung einer Gefahr muss auf alle Szenarien, die sich in derselben Irrtumsmaß-Stufe befinden, anwendbar sein.

    These 5: Eine Risikobeurteilung umfasst folgendes:
    5.1 ein Set von Annahmen
    5.2 ein Ereignis, dessen Risiko bewertet werden soll
    5.3 eine Analyse / Herleitung des Risikowertes
    5.4 eine Ergebnis, also das Restrisiko
    5.5 eine Inklusion, also “grösser gleich“ oder “kleiner gleich“

    Freundliche Grüsse, Ralf Kannenberg

    Diesen Kommentar: Zitieren
  9. #1109 | ralfkannenberg | 27. Juli 2011, 17:13

    Sehr geehrter Herr Uebbing,

    kommen wir nun auch schon zur These 6 / Frage 6:

    Gehen Sie mit mir einig, dass gilt:
    Es seien zu einem Ereignis mit demselben Set von Annahmen zwei unterschiedliche Risikoanalysen durchgeführt worden. Die erste hat zum Ergebnis, dass das verbleibende Restrisko R(Ereignis, Set von Annahmen) < r1 sei, und die zweite hat zum Ergebnis, dass das verbleibende Restrisiko R(Ereignis, Set von Annahmen) < r2 sei.

    Sei r2 < r1, dann gilt: R(Ereignis, Set von Annahmen) < r2.

    Der Beweis folgt aus der Transitivität der Ordnungsrelation.

    Freundliche Grüsse, Ralf Kannenberg

    Diesen Kommentar: Zitieren
  10. #1110 | Hans | 27. Juli 2011, 17:49

    – also: Collider-Nullrisiko wissenschaftlich nicht beweisbar –

    Wir haben keinen Konsens. Höchstens insofern, dass Sie endlich eingesehen haben, dass das Leben in diesem Universum mit einer Wahrscheinlichkeit ungleich Null gefährlich ist.

    Wenn Sie diese Art „Risiko“ jetzt beim LHC als relevant ansehen wollen, müssen Sie konsequenterweise dem Universum ebenso verbieten zu existieren bevor nicht eine Risikoanalyse erstellt wurde.

    Diesen Kommentar: Zitieren
  11. #1111 | ralfkannenberg | 27. Juli 2011, 18:16

    Sehr geehrter Herr Uebbing,

    der nächste konsequente Schritt ist nun die These 7 / Frage 7:

    Gehen Sie mit mir einig, dass man eine direkte Nachrechnung ebenfalls als eine Risikoanalyse interpretieren kann ? – Im Gegensatz zu einer normalen Risikoanalyse, in der man Unwägbarkeiten mit einem zu schätzenden Restrisiko belegen muss, kann man bei einer direkten Nachrechnung die Unwägbarkeiten explizit ausrechnen. Somit liefert eine direkte Nachrechnung in jedem Fall ein besseres Resultat als eine Risikoanalyse.

    Freundliche Grüsse, Ralf Kannenberg

    Diesen Kommentar: Zitieren
  12. #1112 | Rudolf Uebbing | 27. Juli 2011, 18:32

    #1107 | ralfkannenberg | 27. Juli 2011, 17:03

    Sehr geehrter Herr Kannenberg,

    die Diskussion kann ich erst ab 12.8.
    hier intensiv weiter führen.

    Ich bemühe mich hier in Stichworten knapp zu antworten.

    Meine Anmerkungen hier:

    These 1 ist m.E. in Ordnung; es würde im Falle
    der Fragestellung zur Mondexistenz (eine
    Einstein-Frage – ein physikalischer
    Bereich ist betroffen) ebenso zu antworten sein.
    Hier kann das Wort „irreführend“ ggf.
    noch graduell unterschiedlich aufgefasst werden.

    These 2 lasse ich dahin gestellt.
    Die Bewertung unterschiedlicher Ursachen
    und die Irrtumsausmaße halte ich für
    stark vom Einzelfall abhängig.

    These 3 mag zutreffen, was ich
    nicht ausschließen kann – die Methodiken
    der Risikoanalysen hängen stark vom
    jeweils zu beurteilenden Einzelfall ab –
    soweit meine Sicht. Unabhängig von
    einer Ihrer 4 Irrtumsstufen mag es in
    den 4 Stufen dennoch ähnliche Risikostrukturen
    geben, die eine methodisch gleiche
    Risikobehandlung gestatten.

    These 4 kann ich aus meiner Kenntnis
    nicht bewerten oder zustimmen – ich möchte
    lieber eine Einzelfallabhängigkeit betonen.
    In jeder Ihrer 4 Stufen mag es Spezialitäten
    und Sonderfälle geben.

    These 5:

    Zu 5.1: An das Set von Annahmen stelle
    ich bestimmte Mindestanforderungen (Vollständigkeit
    von Daten, z.B. Verlässlichkeitsangaben, wie o. beschrieben).

    Zu. 5.4: Das Wort Restrisiko impliziert ein
    verbleibendes unvermeidliches Risiko nach
    Ergreifung und Bewertung von risikomindernden Maßnahmen.
    Hier würde ich gerne die Vorsilbe „Rest“ streichen.
    Ein Risiko umschließt auch ein Restrisiko.

    Zu 5.5: Zu einem Größer/Kleiner-Vergleich von Werten:
    Auch die Genauigkeit von zu vergleichenden Werten
    (zum Beispiel benannt mit = :w1 oder =:w2)
    spielt eine beachtenspflichtige Rolle.
    Zur Verdeutlichung:
    Wenn ein mittlerer Fehler / Standardabweichung
    mit „f“ bezeichnet werde,
    dann wird zum Beispiel w1 mit w1 +/- f anzugeben
    sein und zu vergleichen sein evtl. mit w2 +/- 10 * f;
    insbesondere wenn hier w2 in etwa so groß ist wie w1,
    wird man weiter nachschauen wollen / müssen,
    wie verlässlich denn die Größer/Kleiner-Beziehung,
    das Resultat, ist.

    Zu These 6:
    Die Transitivität zugunsten des kleineren
    Wertes r2 kann nur dann als nachgewiesen gelten, wenn in
    der Untersuchung Nr. 2 die zutreffenden Unterschiede
    zu Nr. 1 aufgezeigt werden, die den kleineren Wert r2
    ausmachen. Eine automatische Transitivität verbietet
    sich m.E., da von nicht übersehbaren Details, z.B. der
    Methodik, Abhängigkeiten erzeugt werden können.
    Hier eine einfach mathematische Transitivität als
    gültig anzusehen, wo komplexe Zusammenhänge zu
    beurteilen sind, halte ich für falsch.

    Wichtig:
    Ganz entscheidend ist hier noch ein fehlender Punkt
    der bei einer professionellen, probalistischen Risikobehandlung nicht fehlen wird
    – das ist die vorhergehende Festsetzung eines Risikowertes,
    welcher gerade noch gesellschaftlich tolerabel ist und der in
    der Praxis vom verbleibenden Risiko nicht
    übertroffen werden darf. (Dieser kann nicht zu
    Null gesetzt werden, dann müsste nämlich ggf. ein Projekt,
    z.B. ein Atomkraftwerk, gestoppt werden.)

    Mit freundlichen Grüssen

    Rudolf Uebbing

    Diesen Kommentar: Zitieren
  13. #1113 | Rudolf Uebbing | 27. Juli 2011, 18:41

    An Hans:

    Lesen Sie bitte doch bei Prof. E. Johnson nach (Fundstellenangabe sh. bitte o.), was genau im vorliegenden Fall
    sehr kleine Risikowerte bedeuten – er diskutiert dazu
    drei Gleichungen, wo der genannte, sehr kleine Wert als
    Faktor berücksichtigt ist.

    Mich wundert sehr,
    dass Sie ein Collider-Risiko mit dem mathematisch
    exakten Wert von Null als wissenschaftlich nachgewiesen
    ansehen wollen.

    Diesen Kommentar: Zitieren
  14. #1114 | ralfkannenberg | 27. Juli 2011, 18:43

    Die Transitivität zugunsten des kleineren
    Wertes r2 kann nur dann als nachgewiesen gelten, wenn in
    der Untersuchung Nr. 2 die zutreffenden Unterschiede
    zu Nr. 1 aufgezeigt werden, die den kleineren Wert r2
    ausmachen.

    Sehr geehrter Herr Uebbing,

    diesem Einwand stimme ich nicht zu: Wenn Ihr Einwand richtig wäre, so würde das bedeuten, dass eine Risikoanalyse, die einen kleineren Risikowert als eine bereits bestehende hat, quasi per definitionem fehlerhaft ist, und zwar unabhängig von der Gründlichkeit und Sorgfalt der Arbeit.

    Eine Risikoanalyse aber ist eine Arbeit, die einen Risikowert berechnet – unabhängig von vorgängig erstellten oder noch später zu erstellenden Arbeiten.

    Gewiss: Eine bestehende Risikoanalyse kann (muss aber nicht) als Reviewgrundlage für eine neue Arbeit Verwendung finden, dies ist aber keine Voraussetzung. Insbesondere dann nicht, wenn die neue Arbeit auf völlig anderen Herleitungen beruht.

    Freundliche Grüsse, Ralf Kannenberg

    Diesen Kommentar: Zitieren
  15. #1115 | Hans | 27. Juli 2011, 18:46

    Uebbing, Sie kapieren einfach nicht, was Sie selbst fabrizieren. Das „Risiko“ von dem Sie die ganze Zeit rumfabulieren ist im Kern das Risiko, dass die Naturgesetze morgen in Richtung lebensfeindlicher Parameter verändert werden. Im Rahmen dessen ist das Risiko einer katastrophalen Colliderphysik sehr wohl „Null“.

    Wenn Sie solche „Risiken“ beim LHC zur Grundlage einer Abschaltung machen wollen, dann verbieten Sie aber bitte auch dem Rest der Welt die Existenz.

    Diesen Kommentar: Zitieren
  16. #1116 | ralfkannenberg | 27. Juli 2011, 18:47

    These 4 kann ich aus meiner Kenntnis
    nicht bewerten oder zustimmen – ich möchte
    lieber eine Einzelfallabhängigkeit betonen.
    In jeder Ihrer 4 Stufen mag es Spezialitäten
    und Sonderfälle geben.

    Sehr geehrter Herr Uebbing,

    aber das spielt doch keine Rolle. Natürlich mag es Sonderfälle geben, aber die kann kann man dann ja umrechnen bzw. das Besondere entsprechend berücksichtigen.

    Freundliche Grüsse, Ralf Kannenberg

    Diesen Kommentar: Zitieren
  17. #1117 | Hans | 27. Juli 2011, 18:47

    Im Übrigen stelle ich erneut fest, dass Sie LSAG nur sehr oberflächlich, wenn überhaupt gelesen haben können.,

    Diesen Kommentar: Zitieren
  18. #1118 | ralfkannenberg | 27. Juli 2011, 18:55

    Zu 5.5: Zu einem Größer/Kleiner-Vergleich von Werten:
    Auch die Genauigkeit von zu vergleichenden Werten
    (zum Beispiel benannt mit = :w1 oder =:w2)
    spielt eine beachtenspflichtige Rolle.
    Zur Verdeutlichung:
    Wenn ein mittlerer Fehler / Standardabweichung
    mit “f” bezeichnet werde,
    dann wird zum Beispiel w1 mit w1 +/- f anzugeben
    sein und zu vergleichen sein evtl. mit w2 +/- 10 * f

    Sehr geehrter Herr Uebbing,

    idealerweise nimmt man nicht die l2 (Varianz), sondern die l“oo“ (Maximum-Metrik) und berücksichtigt diesen Wert beim Ergebnis. Wie bereits geschrieben gehört zum Ergebnis auch immer eine Inklusion.

    Wenn man die l2 verwendet, muss man hier zusätzlich ein weiteres Risiko einbauen. Natürlich, es wird gewiss Situationen geben, bei denen man diesen Approach wählen wird; für eine Sicherheitsbetrachtung mit genügend grossem Schadenspotential indes halte ich ihn für unzureichend, ebenso wie Ihren Sicherheitsfaktor 10, da dieser viel zu klein sein könnte.

    Freundliche Grüsse, Ralf Kannenberg

    Diesen Kommentar: Zitieren
  19. #1119 | ralfkannenberg | 27. Juli 2011, 18:57

    Wichtig:
    Ganz entscheidend ist hier noch ein fehlender Punkt
    der bei einer professionellen, probalistischen Risikobehandlung nicht fehlen wird
    – das ist die vorhergehende Festsetzung eines Risikowertes,
    welcher gerade noch gesellschaftlich tolerabel ist und der in
    der Praxis vom verbleibenden Risiko nicht
    übertroffen werden darf.

    Sehr geehrter Herr Uebbing,

    das ist ein willkürlicher Zusatzschritt, auf den ich mich bei sicherheitskritischen Anwendungen nicht verlassen möchte, da weder Sie noch ich darauf Einfluss nehmen können.

    Freundliche Grüsse, Ralf Kannenberg

    Diesen Kommentar: Zitieren
  20. #1120 | Rudolf Uebbing | 27. Juli 2011, 18:58

    An Herrn Kannenberg:

    Zu These 7:

    Zitat:
    „Gehen Sie mit mir einig, dass man eine direkte Nachrechnung ebenfalls als eine Risikoanalyse interpretieren kann ? “

    Eine Nachrechnung ist i.d.R. die Wiederholung einer Rechnung
    und erhöht die Sicherheit dazu, dass das erste Rechenresultat
    korrekt kalkuliert wurde. (Eine Nachrechnung wird daher auf
    einem a n d e r e n rechnerischem Weg vorgenommen
    werden, z.B. umgekehrter Weg bei der Addition.)

    Insoweit, dass eine kalkulatorisch bedingte Unsicherheit minimiert wird, stimme ich zu.

    (Was ist mit den Unsicherheiten, die aus der Modellbildung
    und den Ungewißheiten einer Theorie herrühren – dies
    ist zwar nicht einfach zu modellieren und rechnerisch schwierig abzubilden, bedarf aber auch einer Diskussion bzw. einer Bewertung,
    wenigstens in einem aussergewöhnlich wichtigen Fall. )

    Diesen Kommentar: Zitieren
  21. #1121 | Rudolf Uebbing | 27. Juli 2011, 19:03

    An Hans:

    Da Sie mir keine Fundstellen zu quantifizierten
    Risikoobergrenzen im LSAG-Report 2008
    benennen, darf ich davon ausgehen, dass Sie derartige
    Textstellen gleichfalls nicht vorgefunden haben ?

    Diesen Kommentar: Zitieren
  22. #1122 | ralfkannenberg | 27. Juli 2011, 19:04

    Eine Nachrechnung ist i.d.R. die Wiederholung einer Rechnung
    und erhöht die Sicherheit dazu, dass das erste Rechenresultat
    korrekt kalkuliert wurde.

    Sehr geehrter Herr Uebbing,

    vielen Dank, dass Sie das ansprechen, denn hier liegt ein Missverständnis vor: Unter einer „direkten Nachrechnung“ verstehe ich einen analytischen Ansatz, im Gegensatz zu einem probabilistischen Ansatz.

    Ich bitte meine Ungenauigkeit zu entschuldigen.

    Freundliche Grüsse, Ralf Kannenberg

    Diesen Kommentar: Zitieren
  23. #1123 | ralfkannenberg | 27. Juli 2011, 19:06

    An Hans:

    Da Sie mir keine Fundstellen zu quantifizierten
    Risikoobergrenzen im LSAG-Report 2008
    benennen, darf ich davon ausgehen, dass Sie derartige
    Textstellen gleichfalls nicht vorgefunden haben ?

    Sehr geehrter Herr Uebbing,

    dank der These 7 benötigen Sie das nicht mehr.

    Freundliche Grüsse, Ralf Kannenberg

    Diesen Kommentar: Zitieren
  24. #1124 | Rudolf Uebbing | 27. Juli 2011, 19:23

    #1117 | ralfkannenberg | 27. Juli 2011, 18:55

    Sehr geehrter Herr Kannenberg,

    möglicherweise habe ich oben „+/-10 * f “
    nicht verständlich genug vermittelt –
    mit „+/- f“ war eine Standardabweichung (mittlerer Fehler) gemeint, mit “ +/- 10* f“ ist auch eine Standardabweichung gemeint, jedoch
    10mal so groß wie f. Dies ist also kein Sicherheitsfaktor,
    sondern fließt erst durch ein Rechenverfahren in ein
    Konfidenzintervall ein. Nun, man kann auch nach der
    L1-Norm anstatt nach der L2-Norm (Gauß) beurteilen – das werden aber Risikoforscher sicherlich hier am besten beurteilen. –

    Ich mache damit deutlich, dass eine obligatorische Verwendung
    von Verlässlichkeitsangaben uns auf den Boden
    der Tatsachen zurückholt – das heißt eine ja/nein-Entscheidung
    zu einer Risikoexistenz hat letzten Endes immer nur
    ein begrenzte Aussagekraft (im Rahmen eines Konfidenzintervalles).

    Nochmal zur Transitivität (These 7):
    Stellen wir uns Ihre
    zwei Analysen mit den Ergebnissen r2 und r1 vor,
    r2 sei dabei nur geringfügig günstiger als r1,
    aber auf Basis der Methodik mit einem sehr
    breiten Konfidenzintervall versehen, r1 vom
    Wert her sehr dicht an r2, aber scharf in einem
    engen Konfidenzintervall nachgewiesen – dann wird bei
    genügend kleiner Differenz (r1-r2) die Entscheidung
    über ein Projekt besser auf Basis der Analyse Nr. 1
    gefällt werden wollen. Das heißt: Für eine Projektentscheidung
    ist eine Transitivität nicht allein ausreichend, selbst
    wenn sie zuträfe.

    Mit freundlichen Grüssen

    Rudolf Uebbing

    Diesen Kommentar: Zitieren
  25. #1125 | Hans | 27. Juli 2011, 19:35

    Wenn Sie die Dokumente irgendwann einmal mit Sinn und Verstand gelesen hätten, würden Sie sich ob der Frage in Grund und Boden schämen. 😀

    Diesen Kommentar: Zitieren
  26. #1126 | ralfkannenberg | 27. Juli 2011, 19:43

    Sehr geehrter Herr Uebbing,

    Dies ist also kein Sicherheitsfaktor

    mag sein, dass im Ingenieurwesen der Begriff „Sicherheitsfaktor“ nur für das erste Moment reserviert ist und nicht für beispielsweise das zweite bzw. dessen Quadratwurzel. Inhaltlich meinen wir hier aber dasselbe.

    L1-Norm

    Hier hingegen habe ich mich geirrt, selbstverständlich ist wie Sie schreiben idealerweise die L1-Norm zu verwenden. Danke schön für die Korrektur.

    Nochmal zur Transitivität (These 7):

    Sie verwenden es richtig, dennoch bitte für den stillen Mitleser: Es ist These 6 gemeint.

    zwei Analysen mit den Ergebnissen r2 und r1 vor,
    r2 sei dabei nur geringfügig günstiger als r1,
    aber auf Basis der Methodik mit einem sehr
    breiten Konfidenzintervall versehen, r1 vom
    Wert her sehr dicht an r2, aber scharf in einem
    engen Konfidenzintervall nachgewiesen

    Wie schon gesagt: Beim Ergebnis ist selbstverständlich das Konfidenzintervall zur ungünstigeren, also zur sicheren Seite hin abzuziehen bzw. hinzuzufügen. Gut möglich, dass dann die andere Risikoanalyse den sichereren Wert liefert.

    Freundliche Grüsse, Ralf Kannenberg

    Diesen Kommentar: Zitieren
  27. #1127 | Rudolf Uebbing | 27. Juli 2011, 20:13

    #1125 | ralfkannenberg | 27. Juli 2011, 19:43

    Klar, die These 6 beschäftigt sich mit Transitivität –

    These 7 beschäftigt sich mit Nachrechnen als
    eine Möglichkeit des Sicherheitsnachweises.

    Zur These 7:
    Wenn ich durch Nachrechnung eines Resultates
    das Rechenergebnis als bestätigt vorfinde und habe
    in der Nachrechnung es unterlassen, die Verlässlichkeitsangaben
    mit zu berücksichtigen, mache ich einen methodischen Fehler.

    Die z u s ä t z l i c h e Berücksichtigung von Verlässlichkeitsangaben wird im Rahmen einer Nachrechnung
    deutlich machen, dass das zu prüfende Resultat
    tatsächlich in einem K o n f i d e n z i n t e r v a l l liegt, jedoch
    nicht p u n k t s c h a r f sich darstellen lässt.

    Das heißt:
    Eine prinzipielle Unschärfe wird durch die Existenz
    eines Konfidenzintervalles nachweisbar,
    welche keinen e x a k t e n Risikowert – einschließlich exakt
    Null – nachweisen lässt.

    Nach wie vor bin ich auf Schätzwerte für Risikooberschranken (nach oben, mithin zum größt möglichen Wert hin) angewiesen, wenn ich den unsichersten Fall (GAU, worst-case-Annahme)
    definitiv ausschließen will.

    Die Ursachen hierfür sind

    a) in der gegebenen unvollständigen Situationskenntnis (grundsätzliches Teilwissen) zu suchen

    und

    b) sie ergeben sich zwangsweise aus den Ausgangsdaten, die auf Basis von Messungen entstanden sind, die a l l e von dem Merkmal der zufälligen Fehler
    gekennzeichnet sind (hinzu treten mögliche unerkannte systematische und selten grobe Messfehler).

    Diesen Kommentar: Zitieren
  28. #1128 | Rudolf Uebbing | 27. Juli 2011, 20:37

    Sehr geehrter Herr Kannenberg,

    die Vereinbarung eines Grenzrisikos als der
    gerade gesellschaftlich noch tolerable Wert
    ist ein reguliertes Vorgehen in
    drei nennbaren europäischen Ländern, wie
    bei Dr. N. Pfeil in „Sicherer als sicher“,
    (Tagungsband des BfR, Fundstelle sh. bitte o.)
    nachgelesen werden kann.

    Mit Hilfe einer Grenzrsikofestlegung verbinden
    sich mehrere Vorteile, wie ich sie hier beschreiben
    möchte:

    a) Vermeidung einer irrealen Nullrisikoforderung,
    die lebensfern ist und praktisch nicht realisiert
    werden kann.

    b) Entwicklung, Beschreibung, Bewertung, Realisierung
    und Prüfung von risikomindernden Maßnahmen solange,
    bis der Schätzwert einer Gefahrenwahrscheinlichkeit
    das festgesetzte Grenzrisiko unterschreitet.

    c) Eine Vertrauensbildung wird durch einen an
    den Tag gelegten Realismus unterstützt.

    Idealisierender Pragmatismus ist ungut;
    Realismus kann im Sinne von objektiven
    Risikobeurteilungen helfen –
    dass heisst, wie ich meine,
    sich klar zur Irrtumsfähigkeit zu bekennen und deswegen
    die möglichen Irrtumspotenziale genau auszuloten.
    Wer hier Verlässlichkeitsangaben nicht aufgreift
    und sie nicht auswertet, sozusagen wer sie ausklammert,
    von dem wird keine Einschätzung von Irrtumspotenzialen
    zu erwarten sein. – Eine ja/nein-Entscheidung, eine
    deterministisch geprägte Beurteilung, kann
    dann auf sehr dünnem Eis gebaut sein.

    Mit freundlichen Grüssen

    Rudolf Uebbing

    Diesen Kommentar: Zitieren
  29. #1129 | Rudolf Uebbing | 27. Juli 2011, 21:27

    Sehr geehrter Herr Kannenberg,

    ich sehe gerade (erst im Nachhinein, wohl infolge Kommentarüberschneidung,
    wir tippen gerade gleichzeitig unsere Texte z.B.), dass Sie
    den Begriff Nachrechnen nochmal neu definieren. Ich will
    darauf bitte später antworten.

    Mit freundlichem Gruß

    Rudolf Uebbing

    Diesen Kommentar: Zitieren
  30. #1130 | galileo2609 | 27. Juli 2011, 23:05

    Uebbing,

    im folgenden wieder meine Zusammenfassung des Tages. Das lief ja heute relativ unspektakulär mit ihnen. Offenbar ist es von Vorteil, wenn sie

    Rudolf Uebbing | 27. Juli 2011, 10:39
    Ich mache bitte darauf aufmerksam, dass wg. einer
    Verpflichtung ich bis 12. Aug. mich hier nur noch kurz fassen
    kann.

    weniger Zeit zum Schwurbeln haben.

    Einige ihrer Aussagen sind jedoch wieder ein Rückfall in das gewohnte Schema. Im Einzelnen:

    Rudolf Uebbing | 27. Juli 2011, 09:10
    nach JBSW mit dem Wert von 2*10**-36 (LHC: 10**-31),
    aber eben n i c h t Null.

    Erneute Erwähnung des Strohmanns, obwohl ich ihnen diesen bereits zerlegt habe. Wem wollen sie mit dieser hartleibigen Beratungsresistenz imponieren?

    Mir gefällt die spezielle Rückfrage von Einstein
    zur Mondexistenz sehr gut.

    Nochmal, Uebbing. Lassen sie die Finger von der Bohr-Einstein-Kontroverse. Oder wollen sie sich auch auf wissenschaftshistorischem Feld lächerlich machen? Der übrige Teil ihres Kommentars ist zum Haare raufen. Ihre physikalische Inkompetenz haben sie bereits zur Genüge demonstriert. Lassen sie es auf diesem Feld. Das ist nur ärgerlich.

    Rudolf Uebbing | 27. Juli 2011, 10:52
    Folgenden aktuellen Bericht empfehle ich hier bitte der allgemeinen Aufmerksamkeit:

    http://www.astronews.com/news/artikel/2011/07/1107-028p.html

    Daraus:
    “Was die vulkanische Aktivität zu einem vergleichsweise späten Zeitpunkt in der geologischen Entwicklung des Mondes ausgelöst haben könnte, ist den Wissenschaftlern noch ein Rätsel.”

    Ah, das nächste Borstenvieh im Anflug. Super, Uebbing! Alternativ dazu empfehle ich ihnen ebenfalls auf astronews.com den Titel: Enceladus lässt es auf Saturn regnen. Ich hoffe, sie verstehen die Implikationen, die in den Daten von ‚Herschel‘ stecken‘.

    Rudolf Uebbing | 27. Juli 2011, 11:05
    a) “Die Wahrscheinlichkeit für einen Vakuumübergang im Vergangenheitslichtkegel war wie hoch,…? ”
    Antwort:
    Dies wissen wir nur mit einer begrenzten
    Verlässlichkeit; der Zahlenwert dieser Grenze
    (eine obere Wahrscheinlichkeit) wurde genannt.
    Unabhängig von der tatsächlichen Wahrscheinlichkeit
    ist das Ereignis bislang nicht eingetreten.

    Falsch. Sie haben entweder, wie Ralf vermutet, ein Verständnisproblem mit dem Begriff „Vergangenheitslichtkegel“, oder sie sind nicht in der Lage, das Szenario „Vakuuminstabilitäten“ physikalisch zu begreifen. Ich vermute allerdings, dass ihr bias bezüglich ihrer Mission sie dazu führt, willkürlich vorzugehen. Ihre „tatsächliche[…] Wahrscheinlichkeit“ ist eine willkürliche Vorstellung einer A-priori-Wahrscheinlichkeit, die durch die Erfahrung, die in Jaffe et al. (und nur darüber reden wir) referiert wird, nicht begründbar ist.

    Zu berücksichtigen ist, dass Naturgesetze menschliche
    Abstraktionen darstellen, die nicht perfekt und nicht irrtumsfrei sein müssen –
    dies beweist z.B. die Entwicklung der Newtonschen
    Mechanik bis hin zur Einsteinschen Allgemeinen
    Relativitätstheorie.

    Die Newtonsche Mechanik und die ART beschreiben in ihrem Geltungsbereich evidente Naturereignisse. Letztere ändern sich nicht dadurch, dass man unterschiedliche theoretische Ansätze anwendet. Kurz gesagt, physikalische Theorien haben keinen Einfluss auf die Natur.

    Die Verlässlichkeit der Aussage zum Ausschluß
    eines Vakuumsüberganges ist begrenzt;
    konkrete Wahrscheinlichkeiten dazu wurden diskutiert.

    „Vakuuminstabilitäten“ können für den Vergangenheitslichkegel der Erde definitiv ausgeschlossen werden. Sie haben keinen belastbaren Erfahrungswert, der eine A-priori-Wahrscheinlichkeit grösser Null empfehlen kann. Ihre subjektive Setzung ist interessengeleitet. Macht aber auch nichts. Da die beobachtete Wahrscheinlichkeit der jeweils unabhängigen Ereignisse in den Nenner eingeht, wissen sie hoffentlich, wie sich die exakt Null auswirkt.

    Rudolf Uebbing | 27. Juli 2011, 12:12
    Die Gültigkeit der Lorentz-Transformation ist
    bislang bei hohen Energien n i c h t widerlegt,
    sie wird jedoch in der Wissenschaft diskutiert.

    Uebbing. Was ist eine (Lorentz-)Transformation?

    Rudolf Uebbing | 27. Juli 2011, 12:21
    Hier ist zu trennen von Wahrscheinlichkeit
    und tatsächlicher Beobachtung – dass das
    Universum existiert, heißt nicht, dass es
    immer so ein m u s s,
    es sei denn, man wäre allwissend.

    Zweites ist trivial. Erstes zeigt erneut ihre subjektive Setzung einer A-Priori-Wahrscheinlichkeit, die durch wissenschaftliches Vorwissen nicht abgedeckt ist. Ihr degree of belief ist rein agitatorisch festgesetzt.

    Rudolf Uebbing | 27. Juli 2011, 15:37
    Wenn diese Frage impliziert, dass wir ab jetzt in einem Konsens
    über einen möglichen Risikowert sprechen, der mathematisch nicht exakt gleich Null ist,
    d.h. mit genau diesem Wert Null n i c h t
    nachgewiesen werden kann,
    hätten wir einen riesigen gedanklichen
    Fortschritt erreicht

    Uebbing, so langsam kommen sie durcheinander. Kein Wunder bei ihrem Themenhopping. Sie haben das Szenario der „Vakuuminstabilitäten“ gewählt, um ihre Ziegenpeterextrapolation zu präsentieren. Bleiben sie bitte dabei. Bezüglich dieses Szenario ist das Risiko exakt Null. Und das ist auch gut so, da dieses Szenario die unmittelbarste Gefährdung bedeuten würde. Die Sicherheitsanalysen für den LHC haben aber nie behauptet, dass z. B. die Wahrscheinlichkeit, MBHs könnten enstehen, gleich Null wäre. Im Gegenteil, man hat das Even if vorausgesetzt.

    Rudolf Uebbing | 27. Juli 2011, 16:59
    Wenn wir diesen Konsens haben
    – also: Collider-Nullrisiko wissenschaftlich nicht beweisbar -,
    der leider von entscheidender Stelle nicht zugestanden wird,
    (sh. hierzu J. Engelen, CERN, The New Yorker v. 14.5.2007),
    können wir mit der nächsten Überlegung beginnen.

    Nächster Strohmann, siehe letzte Entgegnung.

    Einen generellen Forschungsstop will definitiv niemand

    Doch, doch. Sie wollen das. Wenn sie an ihre ’niederländische Ziegenpeterrechnung‘ glauben, käme nur ein genereller Forschungsstopp (inklusive der reinen astronomischen Beobachtung) in Frage. Übrigens zeichnen sie sich durch einen massiven anthropozentrischen Egoismus aus.

    Würden sie endlich mal ihre lächerliche Extrapolation auf die im Zukunftslichtkegel der Erde zu erwartetenden Ereignisse anwenden, sollte bei ihnen der Groschen fallen, dass ihre Methode nichts taugt. Und damit erübrigt sich auch ihr vorletzter Kommentar:

    Rudolf Uebbing | 27. Juli 2011, 20:37

    Fazit: wieder ein vergeudeter Tag, Uebbing. Selbst auf Ralfs konsistentes Experiment (danke an Ralf!) reagieren sie nur taktisch. Ergebnisoffenheit? Fehl am Platz. Ihre Antworten laufen durch den Filter ihres bias, der sie auf Agitprop festgelegt hat.

    galileo2609

    Diesen Kommentar: Zitieren
  31. #1131 | Hans | 27. Juli 2011, 23:22

    „Agitprob “

    Jo, immer diese probabilistische Probaganda…..

    Diesen Kommentar: Zitieren
  32. #1132 | Rudolf Uebbing | 28. Juli 2011, 00:15

    Zum Kommentar #1121 | ralfkannenberg | 27. Juli 2011, 19:04 –

    hier zur These 7:

    Zitat 1:
    “Gehen Sie mit mir einig, dass man eine direkte Nachrechnung ebenfalls als eine Risikoanalyse interpretieren kann ? ”

    Zitat 2:
    „Unter einer “direkten Nachrechnung” verstehe ich einen analytischen Ansatz, im Gegensatz zu einem probabilistischen Ansatz.“

    Ich möchte bitte wie folgt antworten:
    Wir unterscheiden ja

    a)
    Ansätze, die die (zweistellige) Aussagenlogik
    benutzten, und weil sie i.d.R. deterministisch geprägt sind, mit einem ja/nein-Resultat bezüglich der Risikoexistenz enden (wie im Text des LSAG-Reports 2008)

    b) von Ansätzen, die probalistisch geprägt sind,
    welche die Wahrscheinlichkeitslogik bemühen.
    Abkürzungen:
    PSA: Probalistic Safety Assessment
    PRA: Probalistic Risk Assessment.
    Sie enden mit der Angabe von bezifferten Risikowerten.

    Ich gehe davon aus, dass Sie die Methodik
    unter a) in Ihrer Fragestellung meinen (Zitat 1).

    Meine Antwort dazu soll lauten:
    Die Art der Risikobewertung unter a)
    mag ihre speziellen Anwendungsfälle haben;
    im vorliegenden Fall (LHC als eine nuklear /subnuklear
    orientierte Forschungsanlage) halte ich die
    PSA-Methodik für die bessere,
    weil sie m e h r Informationen berücksichtigt.

    Dies bringt zwar Konfidenzintervalle zum
    Vorschein – also zugehörige Bandbreiten des möglichen
    Geschehens, was vielleicht im ersten Moment
    mehr nach Aussagenunsicherheit sieht,
    was aber bestens den tatsächlichen (unsicheren)
    Wissensstand abbildet.

    Dies ist die Realität
    einer konsequenten Beurteilung.

    Die ja/nein-Logik (Aussagenlogik – „Nachrechnen“, Zitat 2)
    kommt mit weniger Eingangsdaten
    als Eingangsinformation aus,
    bildet aber n i c h t die tatsächliche Ungewissheit
    des Naturverständnisses ab – wie auch,
    es fehlt ja die Berücksichtigung der Verlässlichkeitsangaben!

    Nun, in den im LSAG-Report referenzierten Arbeiten
    existieren sehr überzeugende probalistische Ansätze.
    Leider werden diese im LSAG-Report nicht deutlich hervorgehoben, weiter fortgeschrieben und zu abschließenden Resultaten weiter entwickelt. Letzten Endes fällt man in eine einfachere Aussagenlogik zurück, was zugleich eine erhebliche Ersparnis an Analyseaufwänden bedeutet –
    eine Zeitersparnis, die vielleicht verständlich wird,
    wenn wir berücksichtigen, dass nach fünf Jahren zum vorhergehenden Sicherheitsbericht (LSSG, 2003) nur noch drei Monaten den Publikationszeitpunkt des Reports vom LHC-Start
    im September 2008 trennten.

    Von einem Sicherheitsbericht wird erwartet,
    dass er v o r dem zu beurteilenden Ereignis
    (als dessen Untersuchungsgegenstand) publiziert wird
    – wie geschehen.

    Diesen Kommentar: Zitieren
  33. #1133 | Rudolf Uebbing | 28. Juli 2011, 00:46

    An Galileo2609:

    Sie schreiben zur Vakuuminstabilität:
    „Bezüglich dieses Szenario ist das Risiko exakt Null.“

    Die Wissenschaftler Jaffe, Busza, Sandweiss u.
    Wilczek r e s u m i e r e n:
    „Thus on empirical grounds alone, the probability of a vacuum transition at RHIC is bounded by 2×10**−36.“
    Übersetzt:
    „Somit ist allein aus empirischen Gründen die Wahrscheinlichkeit
    eines Vakuumsüberganges am RHIC begrenzt auf 2×10**-36“.

    Nun, Ihre Aussage von „exakt Null“ hätte folgende
    Aussagen von JBSW vorausgesetzt:
    „Somit ist allein aus empirischen die Wahrscheinlichkeit
    eines Vakuumsüberganges am RHIC begrenzt auf den
    Wert exakt Null.“

    Zeigen Sie doch, bitte, eine entsprechende Aussage von JBSW an, die den zitierten Text hier zurücknimmt
    und die Gewissheit eines Risikos mit dem Wert
    „exakt Null“ nachweist.

    (Hier hebe ich nochmal den Resumee-Charakter hervor;
    der Originalsatz steht im unteren Teil eines
    Absatzes und fängt mit „Thus“ an,
    was resumiert, etwa wie in deutscher Sprache: So, somit, folglich,
    derart.)

    Diesen Kommentar: Zitieren
  34. #1134 | galileo2609 | 28. Juli 2011, 01:18

    Uebbing,

    Rudolf Uebbing | 28. Juli 2011, 00:15
    LHC als eine nuklear /subnuklear
    orientierte Forschungsanlage

    ahja, jetzt kommt die Goritschnigsche Verdummungsphrase!

    Rudolf Uebbing | 28. Juli 2011, 00:46
    Nun, Ihre Aussage von “exakt Null” hätte folgende
    Aussagen von JBSW vorausgesetzt:
    “Somit ist allein aus empirischen die Wahrscheinlichkeit
    eines Vakuumsüberganges am RHIC begrenzt auf den
    Wert exakt Null.”

    Zeigen Sie doch, bitte, eine entsprechende Aussage von JBSW an, die den zitierten Text hier zurücknimmt
    und die Gewissheit eines Risikos mit dem Wert
    “exakt Null” nachweist.

    Dazu ist bereits alles gesagt. Wenn sie Methodik und Inhalt des papers von Jaffe et al. nicht verstehen, ist das ihr Problem. Wobei ich nichts anderes erwartet habe.

    galileo2609

    Diesen Kommentar: Zitieren
  35. #1135 | Hans | 28. Juli 2011, 08:10

    Oh mann, Uebbing, lernen Sie endlich, was Jaffe et al wirklich sagen. Die bemühen da etwas, das Vergangenheitslichtkegel genannt wird. Versuchen Sie endlich einmal zu verstehen, was damit gemeint sein könnte.

    Sie haben die Zahl immer noch nicht kapiert.

    Diesen Kommentar: Zitieren
  36. #1136 | Hans | 28. Juli 2011, 08:11

    Inhaltlich gelesen und verstanden wird sofort klar, das bei Jaffe wirklich die NULL steht.

    Diesen Kommentar: Zitieren
  37. #1137 | Rudolf Uebbing | 28. Juli 2011, 08:24

    Eine Feststellung:
    Leider finde ich immer noch nicht den Satz bei
    JBSW, der Ihre Meinung belegen soll, vor.

    So ein Zitat sollte z.B. lauten:
    “Somit ist allein aus empirischen Gründen die Wahrscheinlichkeit eines Vakuumsüberganges am RHIC begrenzt auf den Wert e x a k t Null.”

    Aber: Diese Autoren geben dort definitiv einen
    Wert g r ö ß e r als Null an.

    Damit ist meine Anfrage abschließend beantwortet.

    Diesen Kommentar: Zitieren
  38. #1138 | Hans | 28. Juli 2011, 08:38

    Uebbing, Sie betreiben sinnlose Wortpickerei.

    Was ist ein Vergangenheitslichtkegel?

    Diesen Kommentar: Zitieren
  39. #1139 | Rudolf Uebbing | 28. Juli 2011, 08:51

    Noch eine sachliche, klare Erläuterung:

    Der Vergangenheitslichtkegel besagt,
    dass eine Vakuuminstabilität n i c h t stattgefunden hat;
    daraus kann n i c h t zwingend geschlussfolgert werden,
    dass eine Vakuuminstabilität in der Zukunft ausgeschlossen werden darf.

    Warum kann man dies nicht ausschließen ?
    Antwort: Die Wirkmechanismen bei Kollisionen mit
    hohen Energien sind n i c h t vollständig bekannt.

    Logischerweise begrenzen JBSW daher eine Vakuumsinstabilität n i c h t auf den Wert
    exakt Null, sondern sie geben eine
    Wahrscheinlichkeitsobergrenze g r ö ß e r als Null an.

    Schlussfolgerung:
    Ein Nullrisiko ist hier wissenschaftlich
    nicht nachgewiesen.

    Anmerkung:
    Wegen des kleinen Wahrscheinlichkeitswertes
    können wir uns, jeder für sich, beruhigt zurücklehnen;
    eine Vorhersage,
    ob ein HEP-Experiment die Vakuumsinstabilität erzeugt,
    wird auf ein logisches Nein ausgehen, hat aber dann n u r
    die Qualität einer Prognose wie beim Würfeln,
    nämlich z.B. dass der nächste Wurf keine Sechs ergeben wird.

    Was tatsächlich hier kleine Wert bei der Vakuumsinstabilität
    auch extremst kleine Werte bedeuten, muss man sich erst noch konkret verdeutlichen –
    extrapolierbare Maßstäbe dazu
    bestehen in Form von nationalen Vorschriften (Niederlande, Schweiz, England); daran kann man
    die enorme Bedeutung auch kleinster Werte ermessen.
    Dieser Arbeitsschritt einer Bedeutungsbewertung steht aus!

    Die hier im Forum oft bevorzugte Denkweise
    gemäß einer einfachen Aussagenlogik ist
    n i c h t ausreichend; die Anstrengungen und
    Mühen der Anwendung einer Wahrscheinlichkeitslogik
    (PSA, PRA) stehen aus – das heißt, bislang
    wurde die Bandbreite der möglichen Ereignisse
    n i c h t in einem erkennbar ausreichendem
    Maße quantifiziert;
    man lese dazu a u f m e r k s a m
    den LSAG-Report 2008.

    Diesen Kommentar: Zitieren
  40. #1140 | Hans | 28. Juli 2011, 08:54

    Cosmic rays have been colliding
    throughout the history of the universe, and if such a transition were possible it would
    have been triggered long ago.
    […]

    Hut and
    Rees [4] calculated the total number of collisions of various types that have occurred
    in our past light-cone — whose effects we would have experienced.
    […]

    Das ist der Kontext, den Sie in bester Agitationsabsicht gar nicht erst erwähnen. Da steht die exakte Null. Die folgende Zahl ist eben nicht die von Ihnen so herbeigesehnte Wahrscheinlichkeit für den Vakuumübergang.

    Im Universum hat ein solches Ereignis ausgelöst durch Teilchenkollisionen noch nie stattgefunden. Das ist Fakt. Ungefähr genauso wie die Tatsache, dass Äpfel vom Baum nach unten fallen.

    Ach ja:

    We can rest assured that RHIC will not drive a transition from
    our vacuum to another.

    Wenn Sie jetzt solche Verhältnisse, die nicht einmal die ersehnte Wahrscheinlichkeit darstellen, zur Grundlage der Beurteilung von technischen Anlagen machen wollen, dann können Sie heute am Tag absolut a l l e s stilllegen. Nicht nur Forschungsanlagen, sondern ebenso auch das Leben an sich. Oder gleich das Universum. Denn a l l e s im Universum könnte ja gefährlich sein im Lichte der Uebbingschen spekulativen Physik der beliebig unendlichen Möglichkeiten. Vielleicht verschwindet auch die Sonne einfach morgen am Tag, obwohl Sie in den letzten 5 Mrd. Jahren dies offenbar nie getan hat. Was meinen Sie eigentlich, wie es da aussieht, „on empirical grounds alone“? Oder das Gravitationsgesetzt kehrt sich um, auch wenn es im gesamten Vergangenheitslichtkegel offenbar mehr oder weniger so wie heute funktioniert hat.

    Diesen Kommentar: Zitieren
  41. #1141 | Hans | 28. Juli 2011, 08:56

    daraus kann n i c h t zwingend geschlussfolgert werden,
    dass eine Vakuuminstabilität in der Zukunft ausgeschlossen werden darf.

    Doch, kann es. Wenn 10**47 ähnliche Ereignisse bereits sattgefunden haben und dabei kein Übergang ausgelöst wurde, dann kann man guten Gewissens davon reden, dass offenbar diese Voraussage einiger Modelle schlicht falsch ist.

    Genauso wie man guten Gewissens davon ausgehen kann, dass auch die Gravitation in ein paar Jahren noch genauso funktioniert wie heute.

    Diesen Kommentar: Zitieren
  42. #1142 | Hans | 28. Juli 2011, 08:59

    Antwort: Die Wirkmechanismen bei Kollisionen mit
    hohen Energien sind n i c h t vollständig bekannt.

    Das ist keine Antwort, das ist Blödsinn.

    Wissen Sie, man muss nciht immer den genauen Mechanismus von etwas kennen, um trotzdem gewisse Folgen eindeutig auschließen zu können.

    Wir wissen bei vielen ganz alltäglichen Prozessen bis heute nicht, wie sie genau funktionieren. Trotzdem können wir aber relativ sicher sagen, dass die Welt durch sie nicht vernichtet wird.

    Diesen Kommentar: Zitieren
  43. #1143 | ralfkannenberg | 28. Juli 2011, 09:15

    Sehr geehrter Herr Uebbing,

    Der Vergangenheitslichtkegel besagt,
    dass eine Vakuuminstabilität n i c h t stattgefunden hat;
    daraus kann n i c h t zwingend geschlussfolgert werden,
    dass eine Vakuuminstabilität in der Zukunft ausgeschlossen werden darf.

    richtig.

    Warum kann man dies nicht ausschließen ?
    Antwort: Die Wirkmechanismen bei Kollisionen mit
    hohen Energien sind n i c h t vollständig bekannt.

    Vielleicht. Richtig wäre, dass sich die Autoren dazu gar keine näheren Gedanken machen.

    Logischerweise begrenzen JBSW daher eine Vakuumsinstabilität n i c h t auf den Wert
    exakt Null, sondern sie geben eine
    Wahrscheinlichkeitsobergrenze g r ö ß e r als Null an.

    Richtig.

    Schlussfolgerung:
    Ein Nullrisiko ist hier wissenschaftlich
    nicht nachgewiesen.

    Das hat auch niemand behauptet.

    Deswegen die Zahlen nochmals im richtigen Zusammenhang, man muss einfach nur die richtigen Sachen vergleichen: Während des bisherigen Weltalters gab es 10**47 beobachtbare CR-Kollisionen – dieses “beobachtbar“ ist dieser Vergangenheitslichtkegel, denn wenn eine von denen eine Vakuuminstabilität ausgelöst hätte, welche sich bekanntlich mit Lichtgeschwindigkeit fortsetzt, dann hätten wir dies bemerkt. Da keine dieser 10**47 beobachtbaren CR-Kollisionen eine Vakuuminstabilität ausgelöst hat, ist die Wahrscheinlichkeit, dass eine CR-Kollision eine Vakuuminstabilität auslöst, 1 zu 1**47. Dieses „keine“ sind die 0% und aufgrund ihrer Anzahl lässt sich dann die Wahrscheinlichkeit angeben.

    Die Wahrscheinlichkeit, dass eine der vergangenen CR-Kollisionen eine Vakuuminstabilität ausgelöst hat, ist also exakt 0%; die Wahrscheinlichkeit, dass eine davon eine CR-Kollision eine Vakuuminstabilität auslösen kann, ist kleiner als 1:10**47.

    Freundliche Grüsse, Ralf Kannenberg

    Diesen Kommentar: Zitieren
  44. #1144 | ralfkannenberg | 28. Juli 2011, 09:25

    Ralfs konsistentes Experiment

    Hallo Galileo,

    die Idee ist nicht, dass ich ein „Experiment“ durchführe, sondern dass ich meine Argumentation der vergangenen 3 Jahre mal formal zusammenfasse und den Entwurf dabei zusammen mit einem Vertreter des Widerstandes korrigiere.

    Ziel ist es, dass man dann jeden Einwand (wenigstens die meisten davon) durch Angabe einer These widerlegen kann.

    Wunschziel wäre es, dass bereits während der gemeinsamen Erarbeitung der Thesen ein Bewusstsein wächst, wie man mit diesen ultrakleinen Wahrscheinlichkeiten sinnvoll umgehen kann; zwei dem Widerstand unklare Punkte sind ja nach wie vor die Vergleichbarkeit von Restrisiken (These 6) und die bessere Ausssagekraft einer analytischen Sicherheitsanalyse („direktes Nachrechnen“) zu einer naturgemäss vage gehaltenen Risikoanalyse (These 7). Ebenfalls werden ja gerne Normen (DIN…) oder z.B. fehlgeschlagenen Marsmissionen zitiert, welche sich aber nicht auf physikalische Sachverhalte, sondern auf ingenieurmässige Sachverhalte beziehen (These 2). Verbleibt noch der oftmals als Veralberung empfundene Vergleich mit Hochgeschweinidgkeitszügen, spontanem Sonnenerlöschen oder Tippen auf der Tastatur, welcher durch These 4 abgedeckt werden soll. Und die feststellung, dass in der Praxis immer ein wenn auch ultrakleines Restrisiko verbleibt, wird durch These 1 abgedeckt.

    Freundliche Grüsse, Ralf

    Diesen Kommentar: Zitieren
  45. #1145 | Rudolf Uebbing | 28. Juli 2011, 09:26

    An dieser Stelle sollte noch einmal die Meinung eines bundesdeutschen Verwaltungsgericht zitiert werden,
    was das Thema einer Sicherheitskonferenz betrifft.

    Die am 27. Jan. 2011 gerichtlich protokollierte Meinung
    des Kölner Verwaltungsgericht, trotz einer Klageabweisung, lautet:

    ‘Das Gericht gibt seiner Meinung Ausdruck,
    dass es möglich sein sollte,
    die unterschiedlichen Sicherheitsaspekte,
    die auch Gegenstand der beiden Sicherheitsberichte
    aus dem Jahr 2003 und 2008 waren,
    im Rahmen einer “Sicherheitskonferenz” diskutieren zu lassen.’

    Der Satz des Richters Niemeier ist vorzufinden auf Seite 7
    im Gerichtsprotokoll zur öffentlichen Sitzung der 13. Kammer
    des Verwaltungsgerichts Köln vom 27. Jan. 2011
    in dem verwaltungsgerichtlichen Verfahren 13 K 5693/08
    gegen die Bundesrepublik Deutschland
    wegen Einwirkung des Betrieb des Protononbeschleunigers
    LHC in Genf.

    Der Antragsgegenstand der Klage bezog sich konkret auf
    das Abstimmverhalten der deutschen Vertretung im CERN-Rat; die Klage wurde bedauerlicherweise vom Verwaltungsgericht abgewiesen. Der Rechtsanwalt bemüht sich um eine Berufung.

    Diesen Kommentar: Zitieren
  46. #1146 | Rudolf Uebbing | 28. Juli 2011, 09:49

    An Hans:

    Zu Ihrer Ausführung
    „Wenn 10**47 ähnliche Ereignisse bereits sattgefunden haben und dabei kein Übergang ausgelöst wurde, dann kann man guten Gewissens davon reden, dass offenbar diese Voraussage einiger Modelle schlicht falsch ist. „:

    Sie reden von „guten Gewissen“ –
    nun, eine s t r e n g e wissenschaftliche Betrachtungsweise bei JBSW ergibt eine
    Irrtumsobergrenze, hier eine bezifferte Wahrscheinlichkeitsobergrenze u n g l e i c h Null
    (sh. Jaffe et al.);
    in der Konsequenz sind dazu a n g e m e s s e n e Schlussfolgerungen zu entwickeln.

    Derartige Bemühungen machen zwar Autoren wie
    A. KENT, T. ORD und Prof. E. JOHNSON – leider
    wird dies vom Mainstream nicht aufgegriffen und
    weiterverarbeitet.

    Das Ergebnis wären zum Beispiel konkrete
    risikovermindernde Maßnahmen, keineswegs
    der befürchtete Forschungsstop.

    Eine gesellschaftliche Diskussion um die Bedeutung der Hochenergiephysik wäre ebenfalls die Folge (z.B. in etwa
    vergleichbar mit PID) und angesichts der Gewichtigkeit der Forschungsprojekte auch nötig.

    Diesen Kommentar: Zitieren
  47. #1147 | Rudolf Uebbing | 28. Juli 2011, 10:13

    Sehr geehrter Herr Kannenberg,

    wenn ich Ihre Worte

    „Wunschziel wäre es, dass bereits während der gemeinsamen Erarbeitung der Thesen ein Bewusstsein wächst, wie man mit diesen ultrakleinen Wahrscheinlichkeiten sinnvoll umgehen kann;…“

    nochmals durchlese, so ist dies ziemlich
    genau a u c h mein Anliegen.

    Jedoch gilt für mich: Auch ultrakleine
    Werte sind, wie eine Plausibilisierung ergibt,
    sehr wohl von einer bestimmten, nicht auszulassenden
    Bedeutung. Eine zugehörige, notwendige Diskussion
    ist in der Öffentlichkeit erkennbarerweise nicht erfolgt.

    Zusätzlich gilt:
    Nach strenger Berücksichtigung der
    Verlässlichkeitsangaben (Auswertungen von
    Standardabweichungen, Konfidenzintervallen,
    Signifikanznivaus) kann sich ein v i e l
    höheres Restrisiko herausstellen –
    T. ORD hat dabei eine Gefahrenwahrscheinlichkeit
    von 1: Million bis hin
    zu 1:10000 diskutiert.
    Da der LSAG-Report keine quantifizierenden
    Irrtumsgrenzen / Risikoobergrenzen abhandelt,
    ist derzeit ein deutliches Manko festzustellen,
    welches durch ergänzende Analysen (auf Basis einer Wahrscheinlichkeitslogik; PSA / PRA) behoben werden
    kann.

    Eine vornehmlich durch eine zweistellige
    Aussagenlogik geprägte Analyse, die zufällige
    Fehlerhaftigkeiten nicht explizit mit ins Kalkül
    aufnimmt, halte ich für unzureichend –
    wenigstens in einem Fall der hier diskutierten ausserordentlichen Bedeutung.

    Mit freundlichem Gruß

    Rudolf Uebbing

    Diesen Kommentar: Zitieren
  48. #1148 | Hans | 28. Juli 2011, 10:21

    An dieser Stelle sollte noch einmal die Meinung eines bundesdeutschen Verwaltungsgericht zitiert werden,
    was das Thema einer Sicherheitskonferenz betrifft.

    Entscheidend für die Meinung des Gerichts ist das Urteil. Und dort steht zerst einmal weifelsfrei, dass das Gericht keine Konferenz fordert.

    „Es sollte möglich sein“ – nun, dazu sollte die „Kritikerseite“ doch erst einmal etwas vorlegen, das überhaupt wert wäre, diskutiert zu werden. Weder Sie noch Rössler noch sonstwer hat bisher etwas vorgelegt, was auch nur den Hauch von Substanz hätte.

    Wie man derzeit auf lifeboat.com schön sehen kann, erfüllt beispielsweise Ihr Kronzeuge Rössler wissenschaftliche Standards n i c h t. Eine solche Konferenz unter Beteiligung des Tübinger Hochstaplers wäre allenfalls ein Comedy-Event.

    Im Ürbigen ist es bemerkenswert, dass Sie hier wieder einmal unter Rückgriff auf ausserwissenschaftliche Sphären versuchen abzulenken.

    Diesen Kommentar: Zitieren
  49. #1149 | Hans | 28. Juli 2011, 10:27

    Sie reden von “guten Gewissen” –[…]

    Na, ohne sinnfreies Wortpicken gehts bei Ihnen nicht.

    10**47 Kollisionen im Vergangenheitslichtkegel, die gesamte Vergangenheit bzgl Teilchenkollisionen spricht eine deutliche Sprache. Die Zahl bei Jaffe et al ist nicht Ihr ersehntes Risiko. Und auch keine Irrtumsobergrenze.

    Weiterhin: Wenn Sie genau diese Art Zahl als relevant einstufen zur Diskussion von Anlagen, dann müssen Sie zwangsweise auch über ein Verbot des Universums nachdenken. Denn immerhin besteht ja keine Sicherheit, gemäß Uebbing, dass Naturgesetze auch in Zukunft noch die gleiche Form haben. Wenn also ad hoc diese sich dergestalt ändern sollten, dass Teilchenkollisionen plötzlich doch etwas vermögen, was in der gesamten bekannten Vergangenheit des Universums nicht möglich war, dann ist a l l e s möglich.

    Sie können dann auch über den Zerfall des Protons nachdenken. Über Äpfel, die auf einmal nach oben fallen. Über die Sonne, die sich auf einmal aus dem Staub macht. USW:

    Ich habe wenig Hoffnung, dass bei Ihnen der Groschen noch fallen wird. Sie sind zu fixiert darauf, Ihre Zahl zu retten, als das Sie ernsthaft über den Inhalt und die logischen Konsequenzen nachdenken würden.

    Diesen Kommentar: Zitieren
  50. #1150 | Hans | 28. Juli 2011, 10:30

    „Eine gesellschaftliche Diskussion um die Bedeutung der Hochenergiephysik wäre ebenfalls die Folge (z.B. in etwa
    vergleichbar mit PID) und angesichts der Gewichtigkeit der Forschungsprojekte auch nötig.“

    Demagogisches Vergleichen von Äpfel und Birnen, das geht Ihnen wirklich bemerkenswert leicht von der Hand.

    Und nein, bei Berücksichtigung der Zahlen auf welche Sie hier fixiert starren, müssten Sie viel weiter gehen als nur zur Diskussion der Hochenergiephysik. Sie müssten das Leben, das Universum an sich diskutieren.

    Diesen Kommentar: Zitieren

Kommentare sind geschlossen.