Skip to content

Otto E. Rössler – Anthologie eines Welträtsellösers

von Redaktion am 6. Dezember 2010

Otto E. Rössler reibt sich nun bereits seit Jahren an den Institutionen der akademischen Wissenschaft. Neben bizarren Aktionen setzt der wissenschaftliche Aussenseiter und Mentor des LHC-Widerstands über Dekaden hinweg auch auf eine Welterklärung, die mit skurrilen „Theorien“ die Wissenschaft umkrempeln soll. RelativKritisch hatte dem Tübinger Mediziner angeboten, seine grenzwertigen Texte kommentiert zu veröffentlichen, wenn er keine anderen Möglichkeiten mehr hat. Otto E. Rössler hat dieses Angebot jetzt zum ersten Mal genutzt.

Otto E. Rössler, Baden-Baden 2010

Otto E. Rössler, Baden-Baden 2010

RelativKritisch stellt mit dieser speziellen „Anthologie eines Welträtsellösers“, Otto E. Rössler einen Platz für eine Veröffentlichung seiner Texte und der freien Diskussion dazu unzensurierten Raum zur freien Verfügung. Dabei sind lediglich die allgemeinen rechtlichen Pflichten des Betreibers des Portal RelativKritisch und die von ihm übergreifend erstellten Nutzungsbedingungen zu beachten. Die Redaktion von RelativKritisch behält sich im Rahmen dieser Voraussetzungen Moderationsmassnahmen vor.

Otto E. Rössler hat einen ersten Beitrag und dessen eigene englische Übersetzung auf RelativKritisch veröffentlicht. Seinen Text „Fröhliche Wissenschaft mit lachend in Kauf genommener nicht unwahrscheinlicher Todesfolge für alle“ und die ersten Kommentare dazu veröffentlichen wir nachstehend.

  • Diskutiere über Otto E. Rössler und seine „Anthologie eines Welträtsellösers“ auch im Forum Alpha Centauri!

RelativKritisch E-Edition

 Als ePub herunterladen 1998

Die Artikel von RelativKritisch gibt es auch als E-Book im ePub-Format zum kostenlosen Download!

Ähnliche Beiträge

1.318 Kommentare |
 
  1. #901 | Rudolf Uebbing | 20. Juli 2011, 15:20

    Falsch muss sein,
    von einem Nicht-Physiker genau die Facharbeiten
    zu erwarten, die von Professionellen zu leisten ist –
    das gebietet klares Denken.

    Die Zuständigkeiten für Beweispflichten sind
    juristisch ohne jeden Zweifel bereits geregelt;
    ein Anlagenbetreiber, der mögliche Verursacher,
    muß die Sicherheit seiner Anlage nachweisen – nicht die
    evtl. Betroffenen.

    Eine Verbiegung von Risikowerten,
    die nicht nachweisbar Null sind,
    somit tatsächlich ein „Fast-Null“ repräsentieren,
    hin auf ein „exaktes Null“
    ist ein klarer Verstoß gegen Wissenschaftlichkeit,
    wenn die Deutungshoheit eines Grenzrisikos nicht bei
    den am Experiment direkt interessierten Personen liegt.
    (sh. Zitat oben – Physiker Don Lincoln in „Die Weltmaschine“).

    Die Ausserordentlichkeit der HEP-Experimente
    ist der Öffentlichkeit leider noch nicht bewusst.

    In Übereinstimmung mit Dr. M. Leggett sage ich:
    Der LSAG-Report 2008 entspricht nicht zeitgemäßen
    Standards.

    Ich beschränke mich darauf, darin o f f e n k u n d i g e
    Auslassungen zu beschreiben –
    diese sind leicht zu erkennen und sie
    werden noch Anlaß zu einigen
    Nachbesserungen geben.
    Wir werden genau das erleben.

    Zum Kommentar #897 20. Juli 2011, 12:37,
    zu dem Beispiel des einfachen Nachrechnens
    für den von Herrn Kannenberg beschriebenen
    Fall des Läufers trifft die Behauptung
    – eine einfache Nachrechnung ist ausreichend – anscheinend zu;
    obschon ich bei einem Volkslauf erlebt habe,
    dass einige Teilnehmer „gewarpt“ haben,
    d.h. eine Abkürzung genommen haben.

    Für die komplexe Situation in der Astrophysik,
    wo einige Ausnahmensituationen denkbar sind,
    müssen, wie ich finde,
    Detailuntersuchungen z.B. unter Zugrundelegung
    von Vertrauensintervallen durchgeführt werden;
    Quantifizierungen von Irrtumspotenzialen müssen
    hier vom Betreiber durchgeführt werden – leider
    existieren im vorliegenden Fall einige bestimmte
    Fehlanzeigen.

    Die Beurteilung von Verlässlichkeitsangaben
    kann in einer Sicherheitsanalyse von
    der hier gegebenen ausserordentlichen Bedeutung
    nicht einfach außen vor gelassen werden;
    Nebenbedingungen für denkbar mögliche Ausnahmesituationen
    müssen detailliert bewertet werden.

    Ein Beispiel: Homogenität der hochenergetischen Kosmischen Strahlung (CR).

    Wie zuverlässig, mit welchem quantifizierten
    Signifikanznivau, kann die Homogenität mittlerweile tatsächlich
    nachgewiesen werden ? (AUGER hatte schon für Fälle
    hoher Energien bei der CR ein interessantes Zwischenresultat,
    das zwischenzeitlich aber wieder relativiert wurde;
    (Die neuesten Erkenntnisse können hier die Wahrscheinlichkeit
    einer LHC-Sicherheit erhöhen.)

    Diesen Kommentar: Zitieren
  2. #902 | Hans | 20. Juli 2011, 15:47

    von einem Nicht-Physiker genau die Facharbeiten
    zu erwarten, die von Professionellen zu leisten ist –
    das gebietet klares Denken.

    Völlig falsch. Sich einerseits als Nichtphysiker in der Lage sehen, in Arbeiten von Vollphysikern Fehler zu entdecken, die genauere Ausarbeitung dann aber abwälzen zu wollen – das passt hinten und vorne nicht zusammen. Schon gar nicht, wenn angeblich drei Jahre intensiver Beschäftigung vorliegen.

    Sie können nicht permanent Fehler anmahnen und sich bei jeder konkreten Nachfrage hinter Ihrem Status als Nichtphysiker verschanzen. Das ist billig und grenzt an üble Nachrede.

    Diesen Kommentar: Zitieren
  3. #903 | ralfkannenberg | 20. Juli 2011, 16:01

    Eine Verbiegung von Risikowerten,
    die nicht nachweisbar Null sind,
    somit tatsächlich ein “Fast-Null” repräsentieren,
    hin auf ein “exaktes Null”
    ist ein klarer Verstoß gegen Wissenschaftlichkeit

    Sehr geehrter Herr Uebbing,

    hier bin zumindest ich nicht einverstanden: Obgleich das Restrisiko, dass 2+3 von 5 verschieden ist, echt grösser als 0 ist – ja sogar grösser als das Auftreten von Vakuuminstabilitäten – wäre es absurd, einen klaren Verstoss gegen Wissenschaftlichkeit zu bemängeln, wenn man der Gleichung 2+3 = 5 ein von exakt 0 verschiedenes Restrisiko eines Fehlers zuweisen würde. Ja, es wäre sogar irreführend, wenn man sowas behaupten würde.

    Freundliche Grüsse, Ralf Kannenberg

    Diesen Kommentar: Zitieren
  4. #904 | Rudolf Uebbing | 20. Juli 2011, 16:09

    Zitieren Sie doch bitte auch den zweiten Teil meines Satzes,
    damit das korrekte Verständnis erhalten bleibt – er lautete:

    „,wenn die Deutungshoheit eines Grenzrisikos nicht bei
    den am Experiment direkt interessierten Personen liegt.“

    Der Physiker Don Lincoln erledigt hier gleich zwei Aufgaben; für eine
    ist er nicht zuständig.

    Diesen Kommentar: Zitieren
  5. #905 | ralfkannenberg | 20. Juli 2011, 16:18

    wenn die Deutungshoheit eines Grenzrisikos nicht bei
    den am Experiment direkt interessierten Personen liegt

    Sehr geehrter Herr Uebbing,

    ich sehe nicht, was sich an der Beurteilung des Restrisikos der Addition 2+3 ändert, wenn ich mir Gedanken über die Deutungshoheit eines Grenzrisikos mache.

    Freundliche Grüsse, Ralf Kannenberg

    Diesen Kommentar: Zitieren
  6. #906 | Rudolf Uebbing | 20. Juli 2011, 16:27

    Der zweite Teil meines Satzes bezog sich
    auf tatsächlich extrem kleine Risikowerte,
    die man zu Null leider nicht nachweisen kann.

    Wissenschaftler existieren, die das LHC-Risiko als
    hoch ansehen, z.B. T. ORD, der den
    Risikowert auf Basis sehr grober
    Abschätzungen zwischen 1:10000
    und 1: Million bezifferte – genau
    derartige Werte ließen sich über ausführliche
    Analysen von zu detallierenden Ausnahmesituationen – jedoch
    unter Zugrundelegung empirischen Beobachtungsmaterials –
    eingrenzen; für die Vakuuminstabilität im
    LHC-Falle habe ich oben den Wert 1E-31
    gelesen – absurd klein, aber gemäß der
    Extrapolation niederländischer Richtlinien und
    gemäß einer nicht ausschließbaren optimal guten
    Menschheitszukunft (sh. A. KENT) ist dieser
    „absurd kleine“ Wert um mehrere Größenordnungen
    h ö h e r als die Extrapolation der niederländischen
    Richtlinien für ein tragbares Grenzrisiko ergibt –
    ich erkenne, dies ist
    n i c h t trivial, sondern dies bedarf einer öffentlichen,
    auch ethisch orientierten Diskussion. –

    Vielleicht gibt es berechtigte Wertvorstellungen,
    die geklärt werden müssen, welche einen
    durchaus hohen Risikooberwert, z.B. 1E-12 pro Jahr gem.
    N. BOSTROM, M. TEGMARK, konsensfähig sind
    und erlauben.

    Diesen Kommentar: Zitieren
  7. #907 | Rudolf Uebbing | 20. Juli 2011, 16:59

    Hier mein Gedankengang zu der Wahrscheinlichkeitsbetrachtung
    2 + 3 = 5 :

    Dem absurd kleinen Wahrscheinlichkeitswert,
    wie oben im Beitrag von Herrn Kannenberg
    ermittelt und vorgestellt,
    stimme ich bzgl. der rechnerischem Zahlwert ja zu.

    Diese Demonstration von Herrn Kannenberg halte ich gut dafür,
    eine Vorstellung über die Bedeutung kleiner Zahlen zu erhalten.

    Wie hingegen im Falle von fraglichen Risikowerten zu entscheiden ist,
    legt eine Übereinkunft zwischen Menschen fest –
    g l e i c h, wie ein Wert zustande gekommen ist,
    wenn er real begründet, wissenschaftlich korrekt,
    z.B. als Obergrenze, ermittelt wurde.

    Um möglichst auf der sicheren Seite zu sein,
    ist konservativ die worst-case-Lösung anzuwenden –
    darüber entscheiden Fachleute, die sich
    an gesellschaftliche Vorgaben halten.

    Ich finde die Grenzrisikoregelung im LSAG-Report 2008
    einfach nicht ausdiskutiert

    – wozu auch, im LSAG-Report ist die kritische
    Risikogrenze ja als nullwertig ermittelt –
    damit erübrigten sich die Mühen einer
    Grenzrisikoregulierung. Ist das nicht
    allzu sehr vereinfachend ?

    Diesen Kommentar: Zitieren
  8. #908 | Hans | 20. Juli 2011, 17:02

    Um möglichst auf der sicheren Seite zu sein,
    ist konservativ die worst-case-Lösung anzuwenden –

    Sie implizieren, das wäre bei LSAG nicht getan worden.

    Belegen Sie!

    Diesen Kommentar: Zitieren
  9. #909 | ralfkannenberg | 20. Juli 2011, 17:19

    Sehr geehrter Herr Uebbing,

    Wissenschaftler existieren, die das LHC-Risiko als
    hoch ansehen, z.B. T. ORD, der den
    Risikowert auf Basis sehr grober
    Abschätzungen zwischen 1:10000
    und 1: Million bezifferte

    Gemäss der von Ihnen genannten Arbeit von Dr.Ord weisen auch die Addition von 2+3 sowie die Vakuuminstabilität ein Restrisiko zwischen 1:10000
    und 1: Million auf. Das kommt daher, dass in der Bayes’schen Formel der 1.Summand << der 2.Summand wird.

    Vielleicht gibt es berechtigte Wertvorstellungen,
    die geklärt werden müssen, welche einen
    durchaus hohen Risikooberwert, z.B. 1E-12 pro Jahr gem.
    N. BOSTROM, M. TEGMARK, konsensfähig sind
    und erlauben.

    Die Abschätzung von N. Bostrom und M. Tegmark war nur eine allererste grobe Abschätzung, um eine Idee zu erhalten. Sie diente nicht als Sicherheitsanalyse, was man auch schon einfach daran erkennen kann, dass die Überlegungen weniger als 4 Seiten Platz in Anspruch nehmen. Möchte man eine bessere Abschätzung, also einen geringen Restrisikowert, so muss man sich mehr Mühe machen, wie das in Form diverser Sicherheitsanalysen erfolgt ist. Damit ist die Arbeit von N. Bostrom und M. Tegmark bezüglich Restrisiko-Abschätzung als „veraltet“ anzusehen, da es mittlerweile bessere Abschätzungen gibt und sollte entsprechend nicht mehr für Sicherheitsüberlegungen referenziert werden.

    Freundliche Grüsse, Ralf Kannenberg

    Diesen Kommentar: Zitieren
  10. #910 | Rudolf Uebbing | 20. Juli 2011, 17:26

    Nochmal zur Bedeutung einer Richtlinie für Grenzriskowertfestsetzungen wie die
    in den Niederlanden für öffentliche Planverfahren:

    Wir erinnern uns, dass vor ca. 2 Jahren ein Rechtsanwalt in den
    USA aus juristischer Sicht das Dilemma in
    der Hochenergiephysik in einem 90-Seiten
    Aufsatz in einem Fachjournal erläutert hat.

    Er diskutierte dabei folgende Gleichung:

    Zu erwartender Schaden = Null mal Unendlicher Wert
    (fragwürdiger Nullwert für das Risiko – unendlich großer Wert
    an Gütern, die zur Disposition stehen).

    Das Ergebnis ist mathematisch zunächst unbestimmt –
    man stutzt und zögert – eine natürliche Reaktion.

    Die Lösung dieses mathematischen Dilemmas
    besteht doch darin, einfach sehr große und sehr kleine
    Zahlen, wenn auch kaum vorstellbar, zu akzeptieren.

    Jaffe, Busza, Sandweiss, Wilczek liefern eine
    Obergrenze (Vakuuminstabilität, RHIC-bedingt): 2E-36
    bezogen auf 10 Jahre Collider-Laufzeit.

    A. Kent liefert seine Anzahl (für lives) im Falle einer optimal
    guten Menschheitshistorie in der Zukunft: 1E17.

    Zu diskutieren:
    Die Extrapolation der niederländischen Richtlinie
    ergibt einen Entscheidungswert, konkret beziffert.

    Ich frage nun:
    Warum soll ein systematisches Vorgehen verkehrt sein,
    um ein scheinbares Dilemma nicht doch noch lösen,
    d.h. möglichst realistisch beurteilen, zu können ?

    Diesen Kommentar: Zitieren
  11. #911 | Rudolf Uebbing | 20. Juli 2011, 17:34

    Die Risikoobergrenze von N.Bostrom und M.Tegmark
    beruht auf Stellarstatistiken gem. LINEWEAVER –
    solange genau diese Stellarstatistik n i c h t
    in der Sicherheitsanalyse des LSAG-Reports 2008
    verarbeitet und angesprochen wird, möchte ich die Obergrenzenabschätzung in Nature, 438. 754 (2005) als eine
    u n a b h ä n g i g e Abschätzung betrachten.

    Sie gehört daher, wie ich meine, separat widerlegt
    und nicht beiläufigerweise übergangen.

    Diesen Kommentar: Zitieren
  12. #912 | ralfkannenberg | 20. Juli 2011, 18:27

    solange genau diese Stellarstatistik n i c h t
    in der Sicherheitsanalyse des LSAG-Reports 2008
    verarbeitet und angesprochen wird, möchte ich die Obergrenzenabschätzung in Nature, 438. 754 (2005) als eine
    u n a b h ä n g i g e Abschätzung betrachten.

    Sie gehört daher, wie ich meine, separat widerlegt
    und nicht beiläufigerweise übergangen.

    Sehr geehrter Herr Uebbing,

    das ist leider unzutreffend, wie folgende Überlegung einfach darstellt: Nehmen Sie an, ich verfasse eine Sicherheitsanalyse zum LHC. Da ich keine Zeit habe, setze ich das Restrisiko zu 100%. Das ist nicht falsch, sondern entspricht lediglich dem Ergebnis meiner Analyse.

    Die Aussage, diese von mir hypothetisch erstellte Sicherheitsanaylse sei unabhängig und müsste deswegen seperat widerlegt werden, ist – wie man offensichtlich sieht – unzutreffend.

    Freundliche Grüsse, Ralf Kannenberg

    Diesen Kommentar: Zitieren
  13. #913 | ralfkannenberg | 20. Juli 2011, 19:40

    Sehr geehrter Herr Uebbing,

    Zu erwartender Schaden = Null mal Unendlicher Wert
    (fragwürdiger Nullwert für das Risiko – unendlich großer Wert
    an Gütern, die zur Disposition stehen).

    Das Ergebnis ist mathematisch zunächst unbestimmt –
    man stutzt und zögert – eine natürliche Reaktion.

    da gibt es nichts zu zögern: Da Sie 0-wertige Risiken per definitionem ablehnen, wächst das Resultat dieser (Milchmädchen-)Rechung über alle Schranken an, ist also umgangssprachlich gesprochen „unendlich“. Das gilt für jede Situation, d.h. man müsste umgehend alle Aktivitäten einstellen. Das wird also nicht die Lösung einer ernstzunehmenden Risikoanalyse sein können.

    Die Lösung dieses mathematischen Dilemmas
    besteht doch darin, einfach sehr große und sehr kleine
    Zahlen, wenn auch kaum vorstellbar, zu akzeptieren.

    Es ist mir neu, dass „sehr kleine Zahlen“ ein mathematisches Dilemma darstellen würden: Die Zahl Null ist wohldefiniert.
    Und was das Produkt von „null“ mal „unendlich“ anbelangt – manchmal gelingt es, beide Grössen als Folge einer gemeinsamen Variable darzustellen; dann kann man – falls das konvergiert – das Ergebnis stetig auf den Grenzwert fortsetzen; beispielsweise 2x*(1/x) oder x*(1/x**2).

    Freundliche Grüsse, Ralf Kannenberg

    Diesen Kommentar: Zitieren
  14. #914 | Solkar | 20. Juli 2011, 19:56

    das Ergebnis stetig auf den Grenzwert fortsetzen; beispielsweise 2x*(1/x)

    Das stimmt.

    oder x*(1/x**2).

    Das nicht;

    falls Sie , wovon ich ausgehe, auf x=0 fortsetzen wollen.
    (Nach einmal l’Hospital ist Schluss, da Zähler dann schon const aber der Gesamtterm für x->0 immer noch divergiert).

    Diesen Kommentar: Zitieren
  15. #915 | ralfkannenberg | 20. Juli 2011, 20:04

    x*(1/x**2)

    Hallo Solkar,

    danke, ich meinte natürlich den Kehrwert(x**2)/x, damit sich das x im Nenner herauskürzen kann.

    Besten Dank für die Korrektur.

    Freundliche Grüsse, Ralf Kannenberg

    Diesen Kommentar: Zitieren
  16. #916 | Karl | 20. Juli 2011, 20:11

    @Solkar: \lim_{x->0}x (\frac{1}{x^{2}})=\infty ist zwar divergent, aber nicht unbstimmt. Im Sinne eines „erweiterten“ Grenzwertbegriffes kann man das als stetige „Fortsetzung“ sehen. Im übrigen ist L’Hospital eine gewaltige Einschränkung.

    Diesen Kommentar: Zitieren
  17. #917 | Rudolf Uebbing | 20. Juli 2011, 20:41

    Zu: #913 | ralfkannenberg | 20. Juli 2011, 19:40

    Sie schreiben:
    „Es ist mir neu, dass “sehr kleine Zahlen” ein mathematisches Dilemma darstellen würden:…“

    Ich zitiere mich dazu bitte selbst:
    „Zu erwartender Schaden = Null mal Unendlicher Wert
    (fragwürdiger Nullwert für das Risiko – unendlich großer Wert
    an Gütern, die zur Disposition stehen).

    Das Ergebnis ist mathematisch zunächst unbestimmt –
    man stutzt und zögert – eine natürliche Reaktion.

    Die Lösung dieses mathematischen Dilemmas…“

    Bitte, lesen Sie doch nochmal – da steht nichts davon, dass
    sehr kleine Zahlen ein Dilemma darstellen.

    Wie hingegen zu merken ist, plädiere ich für
    die Anwendung einer Grenzrisikofestlegung.
    Diese funktioniert als Entscheidungshilfe, z.B. über
    die Notwendigkeit risikomindernde Maßnahmen,
    bei allen denkbaren, möglichen
    Werten von 0 bis 1.

    Diesen Kommentar: Zitieren
  18. #918 | Karl | 20. Juli 2011, 20:47

    @Uebbing: sehr, sehr, sehr, …, sehr klein ist eben so gut wie Null. Das ist kein Dilemma. Höchstens für sie.

    Die Grenzrisikofestlegung ist eben Null.

    Diesen Kommentar: Zitieren
  19. #919 | Rudolf Uebbing | 20. Juli 2011, 21:07

    Ein Grenzrisikofestlegung zu Null ist leider in der Praxis
    unerfüllbar und lebensfern.

    Diesen Kommentar: Zitieren
  20. #920 | Karl | 20. Juli 2011, 21:28

    Eine Grenzrisikofestlegung auf Null ist in der Praxis genau so unerfüllbar oder lebensfern, wie eine Grenzrisikofestlegung auf 10^{-47}

    Diesen Kommentar: Zitieren
  21. #921 | Rudolf Uebbing | 20. Juli 2011, 21:30

    Zu Kommentar #912 | ralfkannenberg | 20. Juli 2011, 18:27 :

    Zu dem von Ihnen beschriebenen idealisierten Riskobeurteilungsfall mit p=1
    (also ein Risiko mit 100 Prozent angesetzt)
    ist j e d e nachfolgende Risikoanalyse,
    die im Detail konkrete Wirkmechanismen untersucht
    und Erkenntnisse dazu gewinnt und auswertet,
    eine Verbesserung, mithin eine Präzisierung,
    da die Erstanalyse (p = 1) offenbar noch o h n e jede Kenntnisse
    zum Wirkmechanismus auskommt
    (Sie benennen ja einen Grund dazu – wegen Zeitmangel).

    Die unvoreingenommene Sichtweise kann lauten:
    Zwei Risikobeurteilungen konkurrieren zunächst einmal
    miteinander;
    stellt sich eine Risikobeurteilung als
    Untermenge der anderen heraus,
    so ist die Risikobeurteilung mit
    der größeren berücksichtigten Informationsmenge
    (Informationsmengen hier in beiden Fällen im übrigen als qualitativ
    gleichwertig unterstellt)
    die bessere, die verlässlichere,
    wenn beide Risikobeurteilungen methodisch gleich wären.

    Benutzen zwei Risikoanalysen zum selben Untersuchungsgegenstand
    unterschiedliche Datensätze bei gleicher
    methodischer Wertigkeit, so ergibt
    der Qualitätsvergleich der Datensätze Hinweise darauf,
    welche der beiden Risikobeurteilungen die bessere ist.
    In diesem Fall wäre u.U. darauf hinzuwirken,
    dass die unterschiedlichen Datensätze in einer zusammenfassenden, neu zu erstellenden Risikobeurteilung einfließen.

    Benutzen zwei Risikobeurteilungen unterschiedliche Datensätze
    u n d unterschiedliche methodische Ansätze,
    so kann eigentlich nur der datenmäßige und
    methodische Detailvergleich hier Aufschluss über die jeweilige Aussagekraft ergeben.

    Für unterschiedlich angelegte Risikobeurteilungen,
    die Wirkungsmechanismen in irgendeiner Weise mitberücksichtigen,
    kann nur im Wege des Vergleiches entschieden werden,
    welche der beiden Analyse die aussagekräftiger ist,
    ob sie einander widersprechen oder
    ob sie einander ergänzen können –
    u.U. können unterschiedliche Analysewege aus zwei unterschiedlich
    angelegten Risikobeurteilungsverfahren miteinander kombiniert
    werden, so dass p selbst und das zugehörige Vertrauensintervall
    für p (p = Risikowert, evtl. auch dessen Obergrenze)
    nochmals präzisiert werden kann.

    Ich halte daher meine Behauptung aufrecht, dass die spezielle
    Stellarstatistik nach Lineweaver i.V.m. dem Beurteilungsverfahren
    von Bostrom/Tegmark fachlich und explizit im LSAG-Report 2008
    zu erwähnen ist und im Detail begründet werden sollte,
    warum das neuere Beurteilungsverfahren (2008)
    hier verlässlichere Wahrscheinlichkeiten (hier aus dem Text des LSAG-Reportes
    sprachlich abzuleiten sogar mit p= 0, „Zero“, sogar endgültig,
    beliebig genau verläßlich) ergibt;
    dies ist keinesfalls trivial
    und ergibt sich nicht logisch zwingend automatisch.

    Leider wird im LSAG-Report 2008 im Endresultat
    nicht mit einer Gleichung wie p=0 operiert,
    sondern die Gleichung p=0 (Nullwert eines Risikos)
    einschl. des zugehörigen Vertrauensintervalles
    ist aus dem sprachlichen Kontext heraus
    zu nehmen; dabei sind die zugehörigen Werte (Risiko = Null) und die Verlässlichkeit dieser Angabe als beliebig präzise zu entnehmen.
    (Als Nichtphysiker staune ich über
    die hier demonstrierte Vollendung
    eines speziellen physikalischen Wissens –
    entschuldigen Sie bitte diese bittere Bemerkung.)

    Beobachtungsdaten (wie die Stellarstatistik v. Lineweaver)
    stellen grundsätzlich z u s ä t z l i c h e Informationen
    für den LSAG-Report 2008 dar;
    eine entfallende Notwendigkeit, diese Zusatzinformationen
    eben nicht zu berücksichtigen, muss daher schon eine
    Begründung verdienen.

    Das o.g. Risikobeurteilungsverfahren (mit p = 1)
    leidet unter einer einschränkenden Idealisierung;
    die reelle Umsetzung von Risikoanalysen und ihre
    Vergleiche untereinander muss über Details
    der Beurteilungsausführung verstanden werden –
    so sehe ich jedenfalls den Zusammenhang;
    der Einzelfall entscheidet; Gewissheit über die
    Zusammenhänge erfahre ich letzten Endes über die Details.

    Diesen Kommentar: Zitieren
  22. #922 | galileo2609 | 20. Juli 2011, 22:53

    Hallo Solkar,

    Solkar | 20. Juli 2011, 09:58
    glauben Sie wirklich dass, ich Wert darauf legen würde, diese traurige Truppe (Fassnacht, Übbing et al.) zu befehligen?
    Wer die als Mitstreiter hat, braucht keine Gegner mehr.

    worauf sie Wert legen, entzieht sich meiner Kenntnis. Nach ihrer Selbsteinschätzung stellt sich mir, und möglicherweise nicht nur mir, erneut die Frage, warum sie auf achtphasen die Rechte eines „Member“ mit offensichtlich weitgehenden Adminrechten ausüb(t)en.

    ein Form der poena naturalis

    das ist trefflich gesagt. Ein Moment zum Schmunzeln. Leider sind solche Gewissheiten kein Allgemeingut. Und wie Herr Uebbing heute mehrfach unterschwellig angedroht hat, will er sich weiter der Methoden dieser Truppe bedienen.

    Grüsse galileo2609

    Diesen Kommentar: Zitieren
  23. #923 | Solkar | 20. Juli 2011, 22:54

    @Karl
    Karl schrieb am 20. Juli 2011 um 20:11

     \lim_{x->0}x (\frac{1}{x^{2}})=\infty ist zwar divergent, aber nicht unbstimmt. Im Sinne eines “erweiterten” Grenzwertbegriffes kann man das als stetige “Fortsetzung” sehen.

    Interessanter Einwand!

    Seien  \hat{\mathbb{C}} := \mathbb{C} \cup \{\infty\} ,  \hat{\mathbb{R}} := \{z \in \hat{\mathbb{C}} \left| \Im(z) = 0 \right.\}

    und
     f: \mathbb{R}\setminus \{0\} \rightarrow \mathbb{R} ,
     f(x) = \frac{1}{x} .

    Versteh ich Dich richtig, dass Du so
     \hat{f}: \mathbb{R} \rightarrow \hat{\mathbb{R}} ,
     \hat{f}(x) = \frac{1}{x} .

    „stetig fortsetzen“ willst?

    Karl schrieb am 20. Juli 2011 um 20:11

    Im übrigen ist L’Hospital eine gewaltige Einschränkung.

    Stimmt, aber ich sehe grade nicht. was bei gebrochen-rationalen Funktionen noch schief gehen sollte.

    Beste Grüsse,

    S.

    Diesen Kommentar: Zitieren
  24. #924 | Solkar | 20. Juli 2011, 23:04

    @Karl.
    iwie bin ich heute beim Posten ungeschickt; der Gruss sollte natürlich am Schluss stehen.

    @galileo2609:
    Ganz einfach – Ich hatte damals die Hoffung gehegt, auf 8P und auch im „Dialog“ AC vs. 8P &Co. eine andere, konstruktivere, Diskussionskultur nachhaltig verankern zu können.

    Das „Ergebnis“ ist Ihnen, glaube ich, noch in Erinnerung.

    Grüsse,

    S.

    Diesen Kommentar: Zitieren
  25. #925 | galileo2609 | 20. Juli 2011, 23:13

    Uebbing,

    sie haben den Tag heute ausgiebig genutzt, um in ihrer Endlosschleife erneut über „Los“ zu ziehen. Faszinierend, wie sie längst beeinspruchte Äusserungen einfach erneut wieder aus dem Ärmel ziehen. Beeindruckend ist auch ihre Methode, zwischen ihren unausgegorenen Agitationen fakultativ zu wechseln. Besonders wertvoll ist natürlich, wie sie ihre unsinnigen Phantasien im Laufe des Threads zu unumstösslichen Voraussetzungen wenden wollen. Und ganz nebenbei verstärken sie ihre Propaganda, der mainstream habe wissenschaftlich unredlich gehandelt.

    Nennen sie mir bitte selbst ein Adjektiv, wie man einen solchen Nichtdiskussionsstil bezeichnen kann.

    Weiter möchte ich sie an folgendes erinnern:

    Rudolf Uebbing | 16. Juli 2011, 18:31
    Ich will versuchen, kürzer und
    verständlicher zu formulieren.

    Auch ihre heutigen Kommentare sind eine intellektuelle Körperverletzung, bereits in der Form und noch abgesehen von deren Inhalt. Wer der Sprache nicht mächtig ist, ist definitiv kompetenzlos, in unseren Diskussionen thematisch mitzuhalten.

    galileo2609

    Diesen Kommentar: Zitieren
  26. […] seit 2008 im Debunking der Maschinenstürmer um Otto E. Rössler engagiert, hat sich erneut entschlossen, die Texte des Tübingers kommentiert zu publizieren. Nichts ist so entlarvend wie die Quelle! Nur […]

    Pingback
    Diesen Kommentar: Zitieren
  27. #927 | galileo2609 | 20. Juli 2011, 23:18

    Hallo Solkar,

    Solkar | 20. Juli 2011, 23:04

    ist das so o.k. für sie?

    Grüsse galileo2609

    Diesen Kommentar: Zitieren
  28. #928 | Rudolf Uebbing | 21. Juli 2011, 08:20

    Die Einführung und die Definition
    eines neuen Nullbegriffes hier im
    AC-Blog zur Anwendung in Risikoanalysen –

    ein Benamungsvorschlag: Die „Wie-Null“
    oder die „LINCOLN-Null“:

    Versuch einer Definition:
    Alle Werte von Risikoobergrenzen
    (wo also der Nachweis einer mathematisch
    exakten Null eines Risikos nicht gelingt),
    welche kleiner sind als 2E-36 – wie im RHIC-Fall zur Vakuumsinstabilität -,
    werden im Rahmen von Risikoanalysen der
    Hochenergiephysik mit ihren Werten
    als mathematisch exakt Null angenommen.

    Ich hoffte, meine AC-Diskussionspartner
    wären wie ich entschiedene Gegner einer
    solchen Definition, die den Umgang mit
    extrem kleinen Risiken wie bei der
    angesprochenen Vakuuminstabilität
    nur irrtümlich erleichtern kann und
    über durchaus vorhandene Restrisiken
    hinwegtäuschen kann.

    Die Diskussion hier in diesem Blogg
    mutet an, als schlummere im Bewusstsein
    einiger eine Definition einer „Wie-Null“ –
    nun, der Physiker Don Lincoln spricht
    im Zusammenhang mit Risiken in
    seinem Buch „Die Weltmaschine“ von
    „exakt Null“, gemeint ist ein Risiko des LHC.
    Ich schlage daher vor,
    die hier angesprochene „Wie-Null“ besser auch
    als „LINCOLN-Null“ zu bezeichnen.

    Da im LHC-Fall nicht der Wert 2E-36
    gültig ist, sondern der 50000-fach größere Wert 1E-31,
    kann man sich überlegen, ob die mathematische
    Grenzziehung bei der Definition der
    LINCOLN-Null nicht günstiger auf 1E-31
    erhöht würde, was zusätzlich die
    Risikoerörterung künftig erleichterte.

    Sie fühlen, es klingt eine gewisse
    Bitternis in meinem Defintionsvorschlag,
    welchen ich zum besseren Verständnis
    gewisser Absurditäten hier einmal,
    bitte, nicht provokativ gemeint,
    vorlege.

    Manchmal muss man sich Absurditäten
    konkretisieren, um sich ihrer bewusst zu werden.

    (Nun, es gibt scharfe Definitionen für
    Begrifflichkeiten aus dem Bereich der Risikoanalyse
    in bestimmten DIN-Vorschriften; diese Definitionen sollten mal probeweise den Risikoanalysen in der Hochenergiephysik unterlegt werden.)

    Diesen Kommentar: Zitieren
  29. #929 | ralfkannenberg | 21. Juli 2011, 09:39

    Hallo Karl, hallo Solkar,

    ich würde nicht ohne Not die reellen oder auch die komplexen Zahlen einer Einpunktkompaktifizierung unterwerfen.

    Natürlich kann man das machen, aber es verändert den „Charakter“ der vormals offenen Menge doch wesentlich.

    Freundliche Grüsse, Ralf

    Diesen Kommentar: Zitieren
  30. #930 | ralfkannenberg | 21. Juli 2011, 09:50

    Ich halte daher meine Behauptung aufrecht, dass die spezielle
    Stellarstatistik nach Lineweaver i.V.m. dem Beurteilungsverfahren
    von Bostrom/Tegmark fachlich und explizit im LSAG-Report 2008
    zu erwähnen ist und im Detail begründet werden sollte,
    warum das neuere Beurteilungsverfahren (2008)
    hier verlässlichere Wahrscheinlichkeiten (hier aus dem Text des LSAG-Reportes
    sprachlich abzuleiten sogar mit p= 0, “Zero”, sogar endgültig,
    beliebig genau verläßlich) ergibt;
    dies ist keinesfalls trivial
    und ergibt sich nicht logisch zwingend automatisch.

    Sehr geehrter Herr Uebbing,

    mit der Methode von Bostrom/Tegmark können Sie keine bessere Risikoabschätzung erreichen. Daraus schliessen zu wollen, dass man für eine feinere Risikoabschätzung zunächst die ungenauere Risikoabschätzung widerlegen müsste, kann doch nicht richtig sein. Es ist aber ein schönes Beispiel dafür, dass die “Arithmetik“ der Risikoabschätzungen weitaus komplizierter ist als es auf den ersten Blick erscheinen mag.

    Im Übrigen sei nochmals daran erinnert, dass eine direkte Nachrechnung stets ein besseres Ergebnis als eine Risikoanalyse ergibt, da letztere auf grossenteils unbekannten Parametern und Zusammenhängen beruht.

    Freundliche Grüsse, Ralf Kannenberg

    Diesen Kommentar: Zitieren
  31. #931 | Rudolf Uebbing | 21. Juli 2011, 10:35

    Zu

    „Im Übrigen sei nochmals daran erinnert, dass eine direkte Nachrechnung stets ein besseres Ergebnis als eine Risikoanalyse ergibt, da letztere auf grossenteils unbekannten Parametern und Zusammenhängen beruht.“

    möchte ich meinen:
    Wesentliches Merkmal
    von vollständigen Risikoanalysen ist die
    Einbeziehung und Bewertung von Ausnahmefällen;
    daher müssen, wenn eine Gesamtsicht gewollt ist,
    auch unbekannte Parametrisierungen in eine
    Risikoanalyse mit einfließen und im Wege
    einer Obergrenzenabschätzung konkretisiert werden.

    Die gefühlte Null („exakt Null“ von Physiker Don Lincoln)
    gehört im Wege einer Grenzrisikofestsetzung angemessen beurteilt;
    das bedeutet bei extrem hohen Werten von Gütern kann auch eine scheinbar absurd kleine Gefahrenwahrscheinlichkeit nicht simplifizierend zu einer perfekten Null gemacht werden.

    Die Lösung der jetzigen und künftigen Collider-Problematik sehe ich
    in einer Anwendung einer Grenzrisikofestsetzung.

    Man urteile über die Sichtweise von Gerd Antes:
    “Es gibt die qualitative Aussage „sicher“ nicht,
    sondern nur eine quantitative Sicherheit,…”

    Dazu:
    http://www.faz.net/s/RubB08CD9E6B08746679EDCF370F87A4512/Doc~E6488626574F54E81A39580E4394435A6~ATpl~Ecommon~Scontent.html

    “Von Gerd Antes …

    “Auch wenn immer wieder behauptet wird, dass etwas „sicher“ sei,
    so wird hier wieder einmal demonstriert,
    dass diese Aussage immer falsch ist. Immer.”

    “Es gibt die qualitative Aussage „sicher“ nicht,
    sondern nur eine quantitative Sicherheit,…”

    ” …
    Es ist nicht einmal überraschend. Auch wenn immer wieder behauptet wird, dass etwas „sicher“ sei, so wird hier wieder einmal demonstriert, dass diese Aussage immer falsch ist. Immer. Es gibt die qualitative Aussage „sicher“ nicht, sondern nur eine quantitative Sicherheit, die oft durchaus extrem groß sein kann, so dass insbesondere Politiker daraus gern „sicher“ beziehungsweise „kein Risiko“ machen. Auch wenn das sogenannte Restrisiko 10 hoch minus 6 ist (1 durch 1.000.000) – also sehr klein –, so ist es eben nicht Null. Bei den meisten Menschen, auch Politikern, wird daraus eine gefühlte Null.

    Während es die Null auf der Risikoseite nicht gibt, ist gerade deswegen auf der anderen Seite das Risiko, dass ein solches Ereignis irgendwann eintritt, hundert Prozent, beziehungsweise die Wahrscheinlichkeit ist eins. Es ist also nicht die Frage, ob es eintritt, sondern nur, wann und wo.

    Der Autor ist Mathematiker und Direktor des Deutschen Cochrane Zentrums am Institut für Medizinische Biometrie und Medizinische Informatik der Albert-Ludwigs-Universität Freiburg.”

    Diesen Kommentar: Zitieren
  32. #932 | ralfkannenberg | 21. Juli 2011, 10:42

    Während es die Null auf der Risikoseite nicht gibt, ist gerade deswegen auf der anderen Seite das Risiko, dass ein solches Ereignis irgendwann eintritt, hundert Prozent, beziehungsweise die Wahrscheinlichkeit ist eins. Es ist also nicht die Frage, ob es eintritt, sondern nur, wann und wo.

    Sehr geehrter Herr Uebbing,

    das stimmt nicht: Aus einer schlechten Risikoabgeschätzung folgt noch keineswegs der sichere Eintritt des Ereignisses.

    2+3 wird auch in N Jahren mit N >> maximale Lebensdauer eines Universums nicht zu 6 werden.

    Freundliche Grüsse, Ralf Kannenberg

    Diesen Kommentar: Zitieren
  33. #933 | Rudolf Uebbing | 21. Juli 2011, 11:32

    Sehr geehrter Herr Kannenberg,

    ich stimme Ihnen zu:
    Mit Vollgültigkeitsaussagen, die ich
    in einigen Texten kritisiere, ist
    besonders behutsam umzugehen.

    Wenn der CERN-Generaldirektor von seiner
    persönlichen „hundertprozentigen“ Überzeugung
    in einem Interview gesprochen hat,
    habe ich unmittelbar damit verbunden,
    bei einem tatsächlichen Wert zwischen
    99,5 % bis 100 % wird man umgangssprachlich
    auf den vollen Wert aufrunden dürfen.

    Darf man dies auch in einer wissenschaftlichen
    Arbeit, hier ein „Abrunden“ auf Null, in einem sehr spezifizierten Zusammenhang,
    wenn die Multiplikation mit einem sehr großen Wert
    immer noch ein zu berücksichtigendes Ergebnis
    auswirft ? Eine Lösung dazu besteht in einem
    bestimmten Verfahren aus dem Bereich der Risikoforschung.

    Mit freundlichem Gruß

    Rudolf Uebbing

    Diesen Kommentar: Zitieren
  34. #934 | haereticus | 21. Juli 2011, 12:05

    Langsam beschleicht mich das Grauen ob der in diesem Blog dargebotenen Absurditäten.
    ‚Wie-Null‘, ‚Lincoln-Null‘ etc. erscheinen mir gleichsam als Fabelwesen einer
    verzerrten Wahrnehmung.

    Dabei geht es, soweit ich verstanden habe, u.a. um den qualitativen Unterschied zwischen einer ‚aussagelogischen Analyse‘ (LA) und einer ‚probabilistischen Analyse‘ (PA).

    Bei der Grundform der LA führt eine problemangepasste, strukturierte Argumentation über JA/NEIN-Aussagen zu einem JA/NEIN-Ergebnis.
    Im Falle einer Risikoanalyse lautet das Ergebnis dann:
    ‚Es besteht ein Risiko‘ oder ‚Es besteht kein Risiko‘. Das kann man als logische Null bzw. logische Eins auffassen, darf diese aber keinesfalls als natürliche oder reelle Zahlen (0, bzw. 1), bzw. als Wahrscheinlichkeit verstehen, obwohl letzteres in der Praxis manchmal toleriert wird.

    Bei der Grundform der PA werden zunächst (kombinatorisch) die realtiven Häufigkeiten der zugrunde liegenden Ereignisse bestimmt und daraus die entsprechenden Wahrscheinlichkeiten abgeschätzt. Das sind dann reelle Zahlen p(i), wobei 0 < p(i) <1 ist.
    Die mathematische Darstellung des resultierenden Risikos gelingt nur in relativ einfachen Fällen in einer geschlossenen Form, vor allem, wenn verschiedene Parameter statistisch voneinander abhängig sind. Dies ist ein Manko, denn man muß dann eine Art Monte-Carlo-Simulation auf dem Computer erstellen und durchführen, was bei komplexen Systemen aus Zeitgründen nur Sinn macht, wenn das Risiko nicht zu nahe an NULL ist.
    (M.E. ist bei einem komplexen System z.B. ein Risiko < 10E-9 mit einem modernen PC kaum mehr mit einer vertretbaren Aussagesicherheit zu ermitteln.)

    Zwischen den beiden Grundformen LA un PA gibt es natürlich Mischformen.
    Der erfahrene Analytiker wird sich in jedem Fall das Problem genauestens ansehen, bevor er sich für die Anwendung einer bestimmten Methode entscheidet. Und selbst dann sieht er sich ab und zu genötigt, im Laufe der Arbeiten die Methodik zu variieren.

    N.B.:
    Wenn 4 Zahlen als Basis zur Berechnung des RHIC-Risikos dienen sollen, nämlich N1, X1, N2, X2, wobei N1=10E47, X1=0, N2=2*10E11, X2=0, so frage ich mich, wieso man bei der ungeheuren Größe von N1 und N2 das Ergebnis von R ~ N2/N1 = 2*10E-36 in Zweifel zieht. Die Größe von N1 und N2 in Verbindung mit den 0-Werten von N1 und N2 führt jede kombinatorische Betrachtung des Risikos auf den Grenzfall einer Bildung des Quotienten N2/N1 hin. Und bei einer kombinatorischen Berechnung des Risikos ist jede Art von Aussagesicherheit oder Signifikanz obsolet, da die zugrunde liegenden Zahlen nicht variiert werden.
    Man könnte also, wenn man will, einen gewissen Unsicherheitsbereich abstecken, indem man die Parameter N1 und N2 variiert und dann jeweils den besagten Quotienten bildet. Das ist sehr einfach, bringt aber m.E. nichts und führt das Ganze lediglich auf die Vertrauenswürdigkeit der Zahlen N1 und N2 zurück. X1=0 und X2=0 sollten wir nicht variieren, denn das würde unserer Existenz widersprechen, wie in diesem Blog schon mehrmals dargelegt wurde.

    @ Herrn Uebbing:
    Warum immer noch von anderen etwas fordern, was gegen alle Vernunft steht und was man selber auch bei bestem Willen nicht zustande bringen kann?

    Grüsse
    haereticus

    Diesen Kommentar: Zitieren
  35. #935 | ralfkannenberg | 21. Juli 2011, 12:08

    habe ich unmittelbar damit verbunden,
    bei einem tatsächlichen Wert zwischen
    99,5 % bis 100 % wird man umgangssprachlich
    auf den vollen Wert aufrunden dürfen.

    Sehr geehrter Herr Uebbing,

    bei einem Sicherheit von 99.5% wird kaum jemand von einem „0%igen Restrisiko“ sprechen 😉

    Freundliche Grüsse, Ralf Kannenberg

    Diesen Kommentar: Zitieren
  36. #936 | ralfkannenberg | 21. Juli 2011, 12:57

    Die gefühlte Null (“exakt Null” von Physiker Don Lincoln)
    gehört im Wege einer Grenzrisikofestsetzung angemessen beurteilt;
    das bedeutet bei extrem hohen Werten von Gütern kann auch eine scheinbar absurd kleine Gefahrenwahrscheinlichkeit nicht simplifizierend zu einer perfekten Null gemacht werden.

    Sehr geehrter Herr Uebbing,

    ich denke, mit “gefühlten Nullen“ kommt man nicht weiter, da sich diese Minizahlen unserer Vorstellung völlig entziehen. Ich habe schon vor Jahren vorgeschlagen, dass man statt kleiner Zahlen, deren Sinn man nicht nachvollziehen kann, besser Vergleiche mit realen Situationen anstellt, also z.B. “Dieses Ereignis hat ein Restrisiko, welches kleiner ist als das Risiko, dass Ende Jahr die Sonne erlischt“, oder “Dieses Ereignis hat ein Restrisiko, welches kleiner ist als das Risiko, dass die Summe der natürlichen Zahlen 2 und 3 von der natürlichen Zahl 5 verschieden ist“.
    Gewiss, diese beiden Beispiele, die ich seit Jahren bemühe, sind einfach zwei ad hoc Beispiele; man könnte gewiss bessere Beispiele überlegen und deren Restrisiko-Abschätzung auch deutlich optimieren.
    Ich will eigentlich darauf hinaus, dass ersteres ein extrem kleines Restrisiko eines physikalischen Sachverhaltes und zweiteres ein extrem kleines Restrisiko eines mathematischen Sachverhaltes darstellt. Darunter kann man sich etwas vorstellen und auch ohne viel herumzurechnen wird ein Konsens bestehen, dass ein extrem kleines Restrisiko eines ingenieurmässigen Sachverhaltes viel grösser sein wird als ein extrem kleines Restrisiko eines physikalischen oder gar mathematischen Sachverhaltes. Oder beispielsweise das Restrisiko des Verhaltens einer Person: Auch hier wird ein Konsens bestehen, dass dieses viel höher sein wird als das Restrisiko eines ingenieurmässigen Sachverhaltes.

    Warum ist das so ? Nun, das ist meines Erachtens eine Frage der Komplexität: mathematische Fragestellungen weisen typischerweise eine geringere Komplexität als physikalische Fragestellungen auf, diese eine geringere Komplexität als ingenieurmässige Fragestellungen und diese nochmals eine geringere Komplexität als Verhaltensweisen von Lebewesen auf.

    Bei genügend geringer Komplexität kann man direkt nachrechnen, doch sobald die Komplexität ein gewisses Mass übersteigt, kann man es eben nicht mehr berechnen. Man kann dann versuchen, Simulationen mit vereinfachten Annahmen zu tätigen und wenn das auch nicht mehr geht, Risikoanalysen durchzuführen. Aber die Gleichung 2+3 mit einer Simulation oder die Flugbahn eines Fussballes mit einer Risikoanalyse lösen zu wollen ist beides nicht die optimale Vorgehensweise.

    Freundliche Grüsse, Ralf Kannenberg

    Diesen Kommentar: Zitieren
  37. #937 | ralfkannenberg | 21. Juli 2011, 15:23

    Bei der Grundform der LA führt eine problemangepasste, strukturierte Argumentation über JA/NEIN-Aussagen zu einem JA/NEIN-Ergebnis.

    Im Falle einer Risikoanalyse lautet das Ergebnis dann:
    ‘Es besteht ein Risiko’ oder ‘Es besteht kein Risiko’. Das kann man als logische Null bzw. logische Eins auffassen, darf diese aber keinesfalls als natürliche oder reelle Zahlen (0, bzw. 1), bzw. als Wahrscheinlichkeit verstehen, obwohl letzteres in der Praxis manchmal toleriert wird.

    Hallo haereticus,

    grundsätzlich gehe ich mit Ihren Feststellungen einig. Dennoch sei mir eine Frage erlaubt: Aus welchem Grunde sind Sie der Meinung, dass man den Ergebnissen ‚Es besteht ein Risiko‘ oder ‚Es besteht kein Risiko‘ keine Wahrscheinlichkeit zuordnen dürfe ? Ich persönlich würde das an sich auch nicht tun, sondern mich auf den zweielementigen Wertebereich {true, false} beschränken, aber was spricht Ihrer Meinung nach dagegen, die false mit „0“ und die true mit „>0“ (natürlich nicht mit 1 !!) zu identifizieren ?

    Freundliche Grüsse, Ralf Kannenberg

    Diesen Kommentar: Zitieren
  38. #938 | Solkar | 21. Juli 2011, 16:12

    Offtopic

    Hallo galileo2609!

    galileo2609 schrieb am 20. Juli 2011 um 23:18

    ist das so o.k. für sie?

    Passt schon – von mir aus hätten Sie das Layout nicht mit jener Streichung beeinträchtigen müssen; vlt „stolpert“ ja gelegentlich jener Satire sogar jemand über die „Divina Commedia“ oder über Shakespeares „Julius Cäsar“ – das sind beides imo durchaus höchst empfehlenswerte Lektüren. (Allerdings schätze ich meine Sprachbegabung deutlich geringer ein als diejenige des Autoren des Hymus „dies irae“ – jener war imo ein sprachliches Ausnahmetalent.)

    Aber btw – denken Sie wirklich, dass der (historische) Marcus Iunius Brutus Cäsar „werden“ wollte? Dafür sehe ich keinen Anhaltspunkt.

    Grüsse,

    S.

    Diesen Kommentar: Zitieren
  39. #939 | Solkar | 21. Juli 2011, 16:44

    Herr Übbing

    ich (und vmtl nicht nur ich) warte immer noch gespannt auf ihre Verortung hinsichtlich Prof. Rösslers.

    Überlegen Sie mal, ob Sie wirklich wollen dass Menschen von Rössler zu solchem Geschwätz (comment von Robert Houston on July 20, 2011 9:18 pm) motiviert werden.

    Wissen Sie was sich da zeigt?
    – Aberglaube,
    – Unbildung
    – und Fanatismus,

    wie man sie sonst so geballt nur bei kultischer Verehrung findet.

    Diesen Kommentar: Zitieren
  40. #940 | Rudolf Uebbing | 21. Juli 2011, 17:44

    @Haeriticus

    Die „Wie-Null“ oder die „LINCOLN-Null“ ist hier
    lediglich die manifestierte Abstraktion der
    Denkweise einiger meiner Diskussionspartner,
    denen ich gerne damit ihre eigenen Positionen verdeutlichen
    möchte. Wie Sie nachlesen können, richte ich mich gegen
    solche inhaltlich gelebten Positionen.
    Also: Diese „Fast-Nullen“ zu Risikobergrenzen dienen hier nur der
    Verdeutlichung einiger bestimmter Positionen in der Diskussion.

    Zu Ihrer Frage:

    „…so frage ich mich, wieso man bei der ungeheuren Größe von N1 und N2 das Ergebnis von R ~ N2/N1 = 2*10E-36 in Zweifel zieht.“

    – ein Antwortversuch:
    Die publizierenden Physiker (JBSW) haben explizit mit
    dem Wert (2*10E-36) eine Obergrenze einer Wahrscheinlichkeit
    benannt, nämlich dazu, dass der RHIC einen Vakuumsübergang
    auslösen könne; das Original-Zitat ist hier unzweifelhaft
    eindeutig.

    Nun, man kann jetzt zwei unterschiedliche Standpunkte
    dazu beziehen:

    1.) Der genannte Wert ist dermaßen absurd klein,
    dass wir ihn pragmatisch als eine Null ansehen.

    (Dies, so sehe ich, ist hier die Position meiner
    Diskussionspartner. Von ihnen wird auch im LSAG-Report
    2008 nicht bemängelt, dass offenbar dort das explizite
    Konzept einer Wahrscheinlichkeitsgrenze aufgegeben worden ist –
    was für mich zu einer strengen Wissenschaftlichkeit kontrastiert.
    Grund für die Richtigkeit der Annahme
    einer Risikoobergrenze – ganz einfach: Unvollständiges Wissen.)

    2.) Für mich erkenne ich, dass der Wert (2*10E-36) nur
    scheinbar absurd klein ist, denn es sind mit ihm
    ebenso „absurd“ ausserordentlich große Werte an Gütern verknüpft,
    so dass dieser winzige Wert (2E-36) – wenn auch lediglich als
    Obergrenze – zur Vorsicht veranlassen m u s s.

    Ganz simpel sehe ich mich in dieser Bewertung
    bestätigt dadurch, dass nach einer bestimmten Extrapolation
    holländischer Richtlinien für Planverfahren
    für den RHIC-Fall ziemlich genau gleiche
    kleine „absurde“ Werte für ein Grenzrisiko sich ergeben,
    – für den LHC-Fall, welcher
    um den Faktor 50000 kritischer als der RHIC-Fall hier erscheint –
    bereits jedoch in aufrüttelnder Weise.

    Ferner gehe ich davon aus, dass hinter den
    Niederländischen Richtlinien für Grenzrisikenbestimmungen
    in Planverfahren ein humanistisches
    Wertesystem der dort gesehenen
    Menschenrechte als Grundlage sich verbirgt,
    so dass in den Niederlanden durchaus mit hohem Verantwortungsbewusstsein
    die anspruchsvollen Bestimmungen zur Festsetzungen
    von Grenzrisiken gebildet wurden, wie ich meinen darf.
    Das heißt nicht, in anderen Ländern wäre man humanistisch
    nicht fortschrittlicher, jedoch wie in
    der Schweiz und England gibt es in den Niederlanden
    geregelte Grenzrisiken – das sehe ich als methodischen
    Vorteil an. Ich entnehme dies Ausführungen von Dr. N.
    Pfeil, Tagungsband, „Sicherer als sicher“, BfR, genaue
    Fundstelle hatte ich schon angegeben.

    Die Hochenergiephysik ist wie die Medizin oder
    wie die Biologie
    (dort haben wir dies schon seit langem akzeptiert)
    unlösbar mit ethischen Fragen verbunden –
    dies stellt sich heute auch für die Physik umso mehr heraus,
    so dass für mich erkennbar ist, dass eine gesellschaftliche
    Diskussion über die Vorgehensweise in
    der Hochenergiephysik (Aktives, extremes Eingreifen
    in das Naturgeschehen) in Gang kommen wird.

    Das heißt keineswegs, in jedem Falle die symmetrisch
    konzipierten Teilchenkollisionen mit
    hohem Lorentzfaktor zu verhindern,
    sondern dass heißt für mich,
    alle sinnvollen Maßnahmen zu ergreifen,
    die zur Risikominderung beitragen;
    dazu wäre zunächst eine ausführliche, probalistisch
    und empirisch orientierte Analyse erforderlich
    (eine Weiterentwicklung der Arbeit von Giddings u. Mangano)
    und z.B. ein Katalog mit gelisteten, geeigneten Maßnahmen
    zur Risikominderung seitens des Experimentbetreibers (CERN) wünschenswert. – Ein deutscher Astrophysiker hat z.B.
    diesbezügliche Vorschläge schriftlich fixiert und publiziert.

    Diesen Kommentar: Zitieren
  41. #941 | ralfkannenberg | 21. Juli 2011, 18:06

    1.) Der genannte Wert ist dermaßen absurd klein,
    dass wir ihn pragmatisch als eine Null ansehen.

    (Dies, so sehe ich, ist hier die Position meiner
    Diskussionspartner.

    Sehr geehrter Herr Uebbing,

    nein nein, bloss nicht: Die Sicherheitsanalyse ist keine Risikoabschätzung, sondern eine physikalische Abschätzung zur sicheren Seite hin. Das Methodik der Sicherheitsanalysen ist eine andere als die Methodik einer Risikoabschätzung und entsprechend ist auch das Ergebnis von einem ganz anderen Typ, wie haereticus ja dargelegt hat.

    Freundliche Grüsse, Ralf Kannenberg

    Diesen Kommentar: Zitieren
  42. #942 | ralfkannenberg | 21. Juli 2011, 18:15

    Das Methodik

    Die Methodik

    Diesen Kommentar: Zitieren
  43. #943 | Rudolf Uebbing | 21. Juli 2011, 19:08

    Bei der Vakuuminstabilität wurde der Begriff „sichere Seite“ von
    Giddings und Mangano nicht erwähnt, bitte, wenn ich mich recht erinnere.

    Der Begriff „sichere Seite“ gehörte doch zur Diskussion
    der Schwarzen Löcher – bei der Vakuuminstabiltität ist er mir
    derzeit nicht klar – habe ich an welcher Stelle, bitte, was überlesen ?

    Diesen Kommentar: Zitieren
  44. #944 | haereticus | 21. Juli 2011, 19:17

    @ ralfkannenberg | 21. Juli 2011, 15:23

    Es freut mich, dass Sie auf meinen Kommentar sachlich eingegangen sind.

    Wenn man FALSE mit „0“ und True mit „0<TRUE<1" in Verbindung bringt, hat man die logischen Werte NULL und EINS mit reellen Zahlen in Verbindung gebracht. Dies ist m.E. die 'kleine Erbsünde' gewisser Risikoanalysen.
    Ein Indiz dafür ist schon die Unsymmetrie der Zuordnung, was aber
    weiter nur von Bedeutung ist, wenn man den Spiess umdreht und anstatt
    Risikoanalyse zur Zuverlässlichkeitsanalyse übergeht.

    Wahrscheinlichkeiten p sind m.E. immer im Bereich 0.0 < p < 1.0 anzusiedeln,
    soferne sie aus realen Ereignissen hergeleitet werden. Wahrscheinlichkeiten
    von p=1.0 oder p=0.0 können immer nur postuliert werden, können aber prinzipiell nicht nachgewiesen werden.

    Natürlich kann man argumentieren, dass z.B. die Wahrscheinlichkeit bei einem
    Würfelwurf eine 0 oder 7 herauskommt 0.0 ist. Dabei verlässt man sich aber
    auf die reine Logik, indem man die Situation des 'Experiments' Würfelwurf
    als Realität einstuft und 'strange events' ausschliesst. Auch die von
    Ihnen angesprochene menschliche Fehlerquote könnte man mit einer gewissen
    Lockerheit in die Kategorie 'strange events' miteibeziehen. Aus dieser Sicht
    spricht nichts dagegen, die logische NULL mit der Wahrscheinlichkeit 0.0
    und die logische EINS mit derWahrscheinlichkeit 1.0 zu bezeichnen.
    In meinem Beitrag hatte ich auch angedeutet, dass dies in der Praxis durchaus geduldet wird.

    Denkt man aber daran, und das konnte ich Ihren Kommentaren mit Zustimmung entnehmen, dass keine gedachte Situation als absolut (mit der Wahrscheinlichkeit 1.0)
    festgelgt werden kann (Ihr Beispiel 2+3), so kommt der Faktor des menschlichen Ermessens, was als real gilt, mit in's Spiel. Dann aber beginnt sich das Karussell zu drehen, wie es sich in diesem Blog zeigt.

    Sehen wir von diesen interessanten Betrachtungen (2+3) einmal ab, und glauben, dass 2+3=5 immer richtig ist, so bleiben wir auf dem Boden eines Satzes von plausiblen Ausgangsdaten und können mittels der uns zur Verfügung stehenden logischen und mathematischen Verfahren zu Ergebnissen kommen, die für unsere Begriffe verlässlich sind.
    Mehr kann man m.E. nicht tun.

    Beste Grüsse
    haereticus

    Diesen Kommentar: Zitieren
  45. #945 | ralfkannenberg | 21. Juli 2011, 19:33

    Bei der Vakuuminstabilität wurde der Begriff “sichere Seite” von
    Giddings und Mangano nicht erwähnt, bitte, wenn ich mich recht erinnere.

    Sehr geehrter Herr Uebbing,

    das ist zutreffend: Die Arbeit von Dr.Giddings/Dr.Mangano handelt nicht von Vakuuminstabilitäten und macht entsprechend auch keine Aussage darüber, ob der Betrieb des LHC Vakuuminstabilitäten auslösen könnte oder nicht.

    Thema der laufenden Diskussion ist aber meinem Verständnis nach, ob die Arbeit von Dr.Giddings/Dr.Mangano in ihrem Themenbereich um eine Risikoanalyse ergänzt werden sollte oder nicht.

    Freundliche Grüsse, Ralf Kannenberg

    Diesen Kommentar: Zitieren
  46. #946 | galileo2609 | 21. Juli 2011, 19:47

    Uebbing,

    Rudolf Uebbing | 21. Juli 2011, 19:08
    Der Begriff “sichere Seite” gehörte doch zur Diskussion
    der Schwarzen Löcher – bei der Vakuuminstabiltität ist er mir
    derzeit nicht klar – habe ich an welcher Stelle, bitte, was überlesen ?

    selbstverständlich haben sie da wieder etwas „überlesen“. Steht alles drin in der Sicherheitsanalyse.

    galileo2609

    Diesen Kommentar: Zitieren
  47. #947 | Rudolf Uebbing | 21. Juli 2011, 19:55

    Sehr geehrter Herr Kannenberg,

    das war meine Unachtsamkeit, gleich zwei Themenbereiche
    zu berühren und eine Antwort dann anschließend dem
    falschen Themenbereich zuzuweisen. –

    Für mich halte ich fest:
    Nach JBSW gibt es eine prinzipielle, sehr kleine
    Unsicherheit bzgl. der Vakuumsinstabilität, die einem
    perfekten Sicherheitsergebnis (LHC-Risiko „exakt Null“
    gem. dem Physiker Don Lincoln) entgegensteht.

    Zu der „sicheren Seite“ (bei G&M) möchte ich anmerken, dass Nebenbedingungen existieren, die wiederum selbst
    mit gewissen Unschärfen versehen sind – oben hatte
    die Frage nach dem derzeitigen Stand der Homogenität
    hochenergetischer Strahlung gestellt – wie sicher kann
    ausgeschlossen (quantifiziert) werden, dass Neutronensterne sich
    in Räumen ohne hochenergetische Teilchen lange Zeit aufhalten ?
    Die zugehörige Wahrscheinlichkeit dieses Ausschlusses wird mit 1 angesetzt – aber wie exakt, wie sicher ist hier der Wert von 1 tatsächlich ?

    Wurde versucht ein Vertrauensintervall hierzu zu ermitteln ?

    (Leider finde ich keine derartige Verlässlichkeitsangabe
    bei G&M, aber offenbar setzen diese Forscher implizit den
    Wert mit exakt mathematisch 1 identisch – ungewöhnlich.)

    Mit freundlichem Gruß – Rudolf Uebbing

    Diesen Kommentar: Zitieren
  48. #948 | galileo2609 | 21. Juli 2011, 21:11

    Uebbing,

    Rudolf Uebbing | 21. Juli 2011, 17:44
    Die publizierenden Physiker (JBSW) haben explizit mit
    dem Wert (2*10E-36) eine Obergrenze einer Wahrscheinlichkeit
    benannt, nämlich dazu, dass der RHIC einen Vakuumsübergang
    auslösen könne; das Original-Zitat ist hier unzweifelhaft
    eindeutig.

    es gehört nicht sonderlich viel Grips dazu, um zu begreifen, dass diese Wahrscheinlichkeit eine ratio bedeutet, die dann von Bedeutung gewesen wäre, wenn die Natur eine dieser von ihnen gefürchteten Vakuuminstabilitäten realisiert hätte. In unserem Vergangenheitslichtkegel betrug diese Wahrscheinlichkeit exakt Null. Das wissen wir so exakt, weil wir hier von einer Vollerhebung sprechen. Die RHIC-Kollisionen waren eine Stichprobe, auf die, im Gegensatz zum Induktionsschluss, die Deduktion angewendet werden kann.

    Ferner gehe ich davon aus, dass hinter den
    Niederländischen Richtlinien für Grenzrisikenbestimmungen
    in Planverfahren […] Ich entnehme dies Ausführungen von Dr. N.
    Pfeil, Tagungsband, “Sicherer als sicher”, BfR

    Sie haben immer noch nicht kapiert, dass ihre „niederländischen Richtlinien“ im Falle des Risikos, das sie für Teilchenbeschleuniger so gerne sehen wollen, nichts taugen. Aus den letzten ca. 14 Mrd. Jahren ist das individuelle Risiko eines Menschen, an einer Vakuuminstabilität zu sterben, nicht 10-6 oder kleiner, sondern exakt Null. Wo kein individuelles Risiko besteht, besteht auch ein gesellschaftliches Risiko von exakt Null, so wie es Pfeil vorschwebt.

    Im übrigen ist ihre „Ziegenpeterextrapolation“ nicht besonders belastbar. Hätten sie Formaljunkie das mal, wie von mir angeregt, auf den Zukunftslichtkegel angewendet, würden sie sehen, wie sich ihr „Grenzrisiko“ dynamisch über Grössenordnungen entwickelt. Präzision sieht anders aus.

    Die Hochenergiephysik ist wie die Medizin oder
    wie die Biologie
    (dort haben wir dies schon seit langem akzeptiert)
    unlösbar mit ethischen Fragen verbunden

    Wieder einmal verwechseln sie Äpfel mit Birnen. In der Medizin wird am Menschen experimentiert. Ethikkommisionen und das ganze Tralala sind besonders auf die Würde des Menschen konzentriert. Geht es hier um konkrete Risiken, setzen die Versuchsreihen, z. B. bei der Erprobung neuer Medikamente oder Behandlungsmethoden bei doch wesentlich kleineren Fallzahlen an. Klingt aber gut, Uebbing, nicht wahr? Wieder so eine Agitation, die bei irgendeinem anderen Genie schon verfangen wird.

    dies stellt sich heute auch für die Physik umso mehr heraus,
    so dass für mich erkennbar ist, dass eine gesellschaftliche
    Diskussion über die Vorgehensweise in
    der Hochenergiephysik (Aktives, extremes Eingreifen
    in das Naturgeschehen) in Gang kommen wird.

    Sehr schön, Uebbing. So langsam lassen sie die Hosen runter! Wie weit sind sie noch von der Esoterik-Welt der Gabriele Schröter entfernt? Bereitet es ihnen auch seelische Schmerzen, dass im LHC die Protonen auf Kreisbahnen gezwungen werden? 🙂

    galileo2609

    Diesen Kommentar: Zitieren
  49. #949 | ralfkannenberg | 21. Juli 2011, 21:20

    Sehr geehrter Herr Uebbing,

    das war meine Unachtsamkeit, gleich zwei Themenbereiche
    zu berühren und eine Antwort dann anschließend dem
    falschen Themenbereich zuzuweisen.

    kein Problem, wegen sowas tauscht man sich ja aus.

    oben hatte
    die Frage nach dem derzeitigen Stand der Homogenität
    hochenergetischer Strahlung gestellt – wie sicher kann
    ausgeschlossen (quantifiziert) werden, dass Neutronensterne sich
    in Räumen ohne hochenergetische Teilchen lange Zeit aufhalten ?

    Das ist der richtige Ansatz: Die Suche nach einem systematischen Fehler.
    In diesem Falle wird die Antwort dadurch vereinfacht, dass man sehr grossräumige Strukturen benötigt, um ein Szenario zu konstruieren, in dem Neutronensterne nicht von kosmischer Strahlung getroffen werden. Beachten Sie dabei, dass ja auch die Neutronensterne (und die geeigneten Weissen Zwerge) in der Milchstrasse nicht ortsfest bleiben, sondern sich auch bewegen.

    Freundliche Grüsse, Ralf Kannenberg

    Diesen Kommentar: Zitieren
  50. #950 | galileo2609 | 21. Juli 2011, 21:34

    Hallo Ralf,

    in dem Neutronensterne nicht von kosmischer Strahlung getroffen werden

    ich erhöhe auf alle Neutronensterne.

    Grüsse galileo2609

    Diesen Kommentar: Zitieren

Trackbacks & Pingbacks

  1. Otto E. Rössler – via RelativKritisch | RelativKritisch

Kommentare sind geschlossen.