Skip to content

Otto E. Rössler – Anthologie eines Welträtsellösers, die Fortsetzung

von Redaktion am 18. August 2011

Nach über 2.000 Kommentaren hat die Blog-Software ihre Grenzen erreicht. Der Artikel „Otto E. Rössler – Anthologie eines Welträtsellösers“ war temporär nicht mehr aufrufbar. Deshalb geht es mit den Kommentaren nun hier weiter. Die vorangegangene Diskussion ist weiter unter dem Originalbeitrag einsehbar und zitierbar.

Ähnliche Beiträge

1.273 Kommentare | Kommentar schreiben
 
  1. #951 | Solkar | 22. August 2011, 11:21

    ‚Uebbing‘ ,

    das hier
    #147 | Rudolf Uebbing | 22. August 2011, 08:00

    […]Jaffe, Busza, Sandweiss und Wilczek den Erwartungswert 0 […] geben eine nach oben begrenzte Wahrscheinlichkeit ungleich Null konkret beziffert an

    ist seit gestern (s. #144) nicht richtiger geworden.

    Bei [BJSW] steht an der fraglichen Stelle eine konkret bezifferte obere Schranke für eine Wahrscheinlichkeit und eben nicht eine konkret bezifferte Wahrscheinlichkeit.

    Abgesehen davon wäre ein „konkret bezifferter endlicher Wert“ immer beschränkt, nämlich durch sich selbst; somit ist Ihre falsche Aussage nicht einmal redundanzfrei.

    Diesen Kommentar: Zitieren
  2. #952 | Solkar | 22. August 2011, 12:01

    Ach, und desweiteren, ‚Uebbing‘,

    was war eigentlich bei Ihrer #135 in Sie gefahren?

    Sie

    – radebrechen sich hier in Ihrem Blockwarts-Duktus solchen Unsinn zusammen, dass man nicht weiss ob man brechen oder schreien soll
    – kriegen, wie gezeigt, die Bedeutung einer einfachen Phrase im Englischen nicht auf die Reihe

    und wollen jetzt etwas über Kommunikation erzählen? :mrgreen:
    *lol* rofl*

    Lesen Sie vorab lieber bei Friedemann Schulz von Thun etwas über „Selbstkundgabe“ nach.

    Oder bei Watzlawick die Geschichte mit dem Hammer; letztere könnte sich gerade für Sie als Augenöffner erweisen.

    Diesen Kommentar: Zitieren
  3. #953 | Rudolf Uebbing | 22. August 2011, 13:07

    Zum Beitrag #149 22. August 2011, 11:21:

    Damit es leichter fällt, zu erkennen, ob und wie
    das Wort „Schranke“ gebraucht wurde und wie
    die Begrenzung zu verstehen ist, hier bitte nochmal
    das Originalzitat:

    „…, the probability of a vacuum transition at RHIC is
    bounded by 2×10^-36.“

    in
    Review of Speculative „Disaster Scenarios“ at RHIC
    R.L. Jaffe, W. Busza, J.Sandweiss, F. Wilczek
    http://arxiv.org/abs/hep-ph/9910333v3

    Der Wert von 2×10^-36 bezieht sich dabei auf
    einen bestimmten Experimentumfang des
    RHIC (2×10^11 Teilchenkollisionen).

    Dabei setzt sinnvollerweise eine Begrenzung mittels des
    Wertes 2×10^-36 grundsätzlich
    die Existenz einer Wahrscheinlichkeit größer gleich
    Null voraus.

    Moderiert durch galileo2609.
    Die Hausaufgaben wieder nicht erledigt, aber so ein geistiges Armutszeugnis, dass der Kommentar doch noch online geht.
    Diesen Kommentar: Zitieren
  4. #954 | galileo2609 | 22. August 2011, 20:41

    Kommentar #151 freigegeben.

    Diesen Kommentar: Zitieren
  5. #955 | Solkar | 22. August 2011, 20:57

    ‚Uebbing‘,

    der moderativen Anmerkung von galileo zu #151

    […]so ein geistiges Armutszeugnis[…]

    ist zuzustimmen.

    Diesen Kommentar: Zitieren
  6. #956 | haereticus | 22. August 2011, 21:43

    Er schafft es halt nicht. Soll man sich mit so
    einem Dilettanten eigentlich noch herumschlagen?
    Er lässt sich ja nicht einmal helfen!
    Also will er nicht begreiffen, was er da anstellt.

    Wie tief kann ein Mensch vor sich selbst sinken?
    Ist das Sturheit, ist es Querulantentum, ist es
    Aufmüpfigkeit, ist es Hass, ist es Neid, ist es
    Hybris, ist es Widerborstigkeit, ist es Dummheit,
    ist es Verblendung, ist es Rechthaberei?

    Mit was haben wir es da zu tun, frage ich mich
    immer wieder.
    Wie kann man denn dauernd Bockmist verzapfen und
    hoffen, dass es hingenommen wird?

    Es ist diesem Dilettanten Uebbing wohl noch nicht
    ganz in’s Bewusstsein gedrungen, dass er gegen
    eine Phalanx steht, die er nicht überwinden kann.

    Auch der Bogenschütze hat seine Pfeile gerichtet
    und schon das Ziel gemutet.
    Der Pfeil liegt aber noch auf der Sehne!

    @ Uebbing:

    Herr Uebbing, seien Sie vernünftig, ansonsten werden Sie
    sogar vor Ihrem vielleicht nicht ganz verdummten Gefolge
    Busse tun müssen!
    Die Mathematik lässt nicht mit sich Schindluder treiben!
    Hat Ihnen das Ihr Lehrer vorzeiten nicht
    hinter die Löffel geschrieben?

    Also, ran an Ihre Hausaufgaben!

    Diesen Kommentar: Zitieren
  7. #957 | Solkar | 22. August 2011, 22:36

    @haereticus
    #154 | haereticus | 22. August 2011, 21:43

    Wie tief kann ein Mensch vor sich selbst sinken? Ist das Sturheit, ist es Querulantentum, ist es Aufmüpfigkeit, ist es Hass, ist es Neid, ist es Hybris, ist es Widerborstigkeit, ist es Dummheit, ist es Verblendung, ist es Rechthaberei?

    In Bezug auf die dümmliche Reaktanz, die ‚Uebbing‘ mir gegenüber an den Tag legt, ist das eine Mischung aus Neid und nacktem Hass

    – Ich bin jünger als er
    – geistig beweglicher als er (was kein Kunststück ist)
    – und sprech auch noch gerne „ausländisch“

    Für einen Spiesser wie den ‚Uebbing‘ reicht das dreimal, um zu hassen.

    Ferner kriegt er von mir nie die Anerkennung, nach der er sich, trotz alles Hasses, so verzweifelt sehnt.

    Diesen Kommentar: Zitieren
  8. #958 | Rudolf Uebbing | 22. August 2011, 23:55

    An haereticus –
    hier die Antwort zur Fragestellung bezüglich lambda –
    das heißt zur konkreten Festlegung des
    Mittelwertes lambda der Poisson-Verteilung im Falle
    von k=0, Stichprobenumfang = 10^47 :

    Dazu aus R. Frühwirth, Quelle sh.b.u., S. 530/584 – Zitat:
    „Eine Beboachtung aus einer Poissonverteilung
    hat den Wert k = 0.

    Was kann über den Mittelwert Lambda ausgesagt werden?

    Mit der uneigentlichen a-priori-Dichte p(Lambda) = 1 ist die
    a-posteriori-Verteilung Ga(1; 1).
    Der Modus ist gleich 0,
    der Erwartungswert ist gleich 1.
    Das HPD-Intervall mit 1 – alpha = 0,95
    ist gleich [0; 2,9957].“

    Ich wiederhole bitte:
    „…der Erwartungswert ist gleich 1.“

    Zur weiteren Erläuterung sh. bitte S. 513 aaO – hier zur Binominalverteilung:
    „Ein Bereich, in dem alle Werte von theta höhere
    a-posteriori-Wahrscheinlichkeit haben als alle Werte
    außerhalb des Bereichs, heißt ein
    HighPosteriorDensity-Bereich, kurz HPD-Bereich.“

    „theta“ wird von R. Frühwirth
    als Erfolgswahrscheinlichkeit eingeführt.

    Dies sind Bezeichnungsweisen, die sich in
    Analysen im Falle von a-priori und
    a-posteriori Warscheinlichkeitsanalysen wiederfinden,
    sh. b. Quelle u., mithin eine zweistufige Form
    der Wahrscheinlichkeitsanalyse.

    Ihr Angabe zu „ptotal“ aus dem Beitrag #1949 entspricht dem
    Formelausdruck bezüglich einem a-posteriori-Erwartungswert
    gem. R. Frühwert – Zitat:
    „Der Erwartungswert der a-posteriori-Verteilung im
    Binominalmodell ist gleich
    E[theta | y] = (y + 1) / (n + 2)“
    (s. S. 503 / 584).
    (theta s.o.,
    „y“ – gem. Frühwirth – zählt zu der „Beobachtung“,
    großes Y ist die „Anzahl der Erfolge“ – sh. S. 502.)

    Im Beitrag #1949 | haereticus | 13. August 2011, 18:09
    fand ich folgenden Satz, dem ich zustimme:
    “Für unseren einfachen Spezialfall ergibt sich die
    Wahrscheinlichkeit gegen das Auftreten einer Vakuuminstabilität zu
    Ptotal = (N+1) / (N+2) … … …”,
    womit passend zur Angabe auf Seite 503/584
    der a-posteriori Erwartungswert für den Fall k e i n e s
    Vakuumswechsels gemeint ist,
    hier numerisch also fast der Wert 1.

    Die Gegenwahrscheinlichkeit
    beträgt ca. 1/10^47, mithin zugleich im Binominalmodell
    der Erwartungswert für einen Vakuumswechsel
    für genau eine einzige Teilchenkollision,
    hier analog zur Frühwirth-Formel
    E (thety | y) = (0 + 1) / (10^47 +2),
    mithin ziemlich exakt 1/10^47,
    mathematisch zur Gegenwahrscheinlichkeit eh
    exakt passend übereinstimmend – jedoch wohlgemerkt im
    Rahmen des Binominalmodells, welches bei R. Frühwirth zusätzlich a-poriori- und a-posteriori-Merkmal
    mit einbezieht.

    Der Erwartungswert ist hier eine Wahrscheinlichkeit, sh. Frühwirth, sh. S. 516 / 584.

    Für die Poisson-Verteilung mit lambda=1 gilt für
    die Wahrscheinlichkeit der Anzahl der Nullziehungen
    (hier über alle 10^47 „Ziehungen“)
    der Wert = 0,37 = 1/e, mithin die Wahrscheinlichkeit,
    dass bei 10^47 Teilchenkollisionen kein ungünstiges
    Ereignis eintritt.

    Noch eine Anmerkung zum Kehrwert der Eulerzahl,
    die im Falle von radioaktiven Zerfallsereignisse
    bedeutsam ist – hier in Verbindung
    mit

    P. Hut / Is it Safe to Disturb the Vacuum?
    Nuclear Physics A418 (1984) 301 ff
    Noah-Ho~and. Amsterdam

    Zitat (S. 302c):
    „The persistence of our present vacuum for some 10^10
    years implies that a spontaneous transition via tunneling
    is unlikely to occur in the immediate future.“

    Hier hebe ich einmal hervor: „immediate“ –
    dies passt sehr gut zur Aussage des Poissons-Modell,
    dass nämlich in den nächsten 14 Milliarden
    (unter gleichen Bedingungen wie bislang im Kosmos)
    mit ca. 63 Proz. Wahrscheinlichkeit
    ein derartiges Ereignis nicht ausschließt –
    vorausgesetzt auf Basis der physikalisch gegebenen
    Unkenntnis könnte man sich auf eine vorläufige Anwendung
    der Poisson-Verteilung einigen.

    Wie ich finde ein interessantes Beispiel für das,
    was P. Hut als „doubly uncertain theoretical situation“
    kennzeichnet. (sh. S. 302c).

    1-0,63 ist hier als Gegenwahrscheinlichkeit zu 1/e (Kehrwert der
    Eulerzahl) zu verstehen, die mit 37 Proz. die Wahrscheinlichkeit
    bei lambda = 1 eine Nullziehung zu erzielen, bezeichnet.

    Ein ähnliche Fragestellung mag es beim Problem des
    Protonenzerfalles geben, wo immer wieder in den letzten
    Jahrzehnten und Jahren die obere
    Schranke zu einer Halbwertszeit erhöht wurde.

    Ob nun ein zweistufiges Wahrscheinlichkeitsmodell
    ( a apriori / a posteriori)
    oder nur ein einstufiges Modell herangezogen
    wird, erscheint mir nicht unbedingt entscheidend zu sein.

    Ich beziehe mich im in diesem Beitrag hier, was meine
    statistischen Aussagen betrifft,
    auf den Autor R. Frühwirth, in dessen Adressangabe
    übrigens ein Hinweis auf Hochenergiephysik sich befindet.

    Meine Beschränkung in diesem Beitrag
    auf die Darstellungen von R. Frühwirth mögen
    bitte geprüft werden.

    DAS HEIßT NICHT, DASS EIN BINOMINALMODELL
    ODER EIN BINOMINALMODELL HIER ZUTREFFEN MUSS,
    SONDERN LEDIGLICH, DASS NULLHYPOTHESEN DURCH KONKRETE
    WISSENSCHAFTSERGEBNISSE WIDERLEBAR SIND.

    Die hier vorgetragenen Modellvorstellungen gem.
    dem Binominal- oder gem. dem Modell nach Poisson unterstützen
    die unter Einhaltung des Prinzips
    der worst-case-Annahmen von JBSW konkret mit einem Zahlenwert bezifferte, nach oben hin begrenzende Wahrscheinlichgrenze für einen hypothetischen, künstlich initiierten Vakuumswechsels.

    Die tatsächlich, zugrundeliegenden Verteilungen sind unbekannt; das Szenario eines Vakuumswechsels ist hypothetisch, wenn auch theoretisch n i c h t auschließbar.

    Warum das Prinzip der worst-case-Annahme die Anwendung
    des Maximum-Likelihood-Schätzers nicht zulässt, hatte
    ich erläutert.

    Quelle:
    http://www.hephy.at/fileadmin/user_upload/Fachbereiche/ASE/Handout_Teil7-8.pdf

    Diesen Kommentar: Zitieren
  9. #959 | Rudolf Uebbing | 23. August 2011, 00:10

    Berichtigung –
    die doppelte Klammer ((…)) ist meine
    Ergänzung im Zitat:

    “Der Erwartungswert der a-posteriori-Verteilung
    (( im Binominalmodell )) ist gleich
    E[theta | y] = (y + 1) / (n + 2)”
    (s. S. 503 / 584)

    aus R. Frühwirth – Handout-Teil7-8.pdf

    Diesen Kommentar: Zitieren
  10. #960 | Rudolf Uebbing | 23. August 2011, 00:18

    An Solkar:

    Ihre merkwürdigen Gefühlreflexionen sind leider nicht geeignet, das Verständnis von Quantenphysik zu verbessern. – Ich bedauere sehr den schlimmen Eindruck,
    den Sie beschreiben.

    Diesen Kommentar: Zitieren
  11. #961 | galileo2609 | 23. August 2011, 00:25

    @all

    Ich lasse das mal so stehen. Auch wenn erneut viel Unfug wiederholt wird, scheint die Disziplinierung zu wirken. UebbingTM hat zwar noch nicht alle Hausaufgaben erledigt, tastet sich aber langsam unter weiterer Preisgabe seiner verqueren Verdrahtungen zumindest langsam ran.

    UebbingTM, ich war beinahe dran, ihren besonders krassen Unsinn

    Hier hebe ich einmal hervor: “immediate” –
    dies passt sehr gut zur Aussage des Poissons-Modell,
    dass nämlich in den nächsten 14 Milliarden
    (unter gleichen Bedingungen wie bislang im Kosmos)
    mit ca. 63 Proz. Wahrscheinlichkeit
    ein derartiges Ereignis nicht ausschließt –
    vorausgesetzt auf Basis der physikalisch gegebenen
    Unkenntnis könnte man sich auf eine vorläufige Anwendung
    der Poisson-Verteilung einigen.

    Wie ich finde ein interessantes Beispiel für das,
    was P. Hut als “doubly uncertain theoretical situation”
    kennzeichnet. (sh. S. 302c).

    1-0,63 ist hier als Gegenwahrscheinlichkeit zu 1/e (Kehrwert der
    Eulerzahl) zu verstehen, die mit 37 Proz. die Wahrscheinlichkeit
    bei lambda = 1 eine Nullziehung zu erzielen, bezeichnet.

    zu löschen. Ich lasse ihn aber noch einmal stehen, damit der Gesamtzusammenhang ihrer eigenen Demontierung erhalten bleibt. Das ist kein Freibrief, weiteren Unfug zu posten.

    galileo2609

    Diesen Kommentar: Zitieren
  12. #962 | Rudolf Uebbing | 23. August 2011, 00:37

    Berichtigung:
    (Fortlassung von „1-“ am Textanfang, „die“ durch „der“ ersetzt):

    Richtig: „0,63 ist hier als Gegenwahrscheinlichkeit zu 1/e (Kehrwert der
    Eulerzahl) zu verstehen, der mit 37 Proz. die Wahrscheinlichkeit
    bei lambda = 1 eine Nullziehung zu erzielen, bezeichnet.“

    Anmerkung: lambda=1 als Erwartungswert rührt explizit
    vom Autor R. Frühwirth für den Fall k = 0
    in einer bestimmten zur Poisson-Verteilung zugehörigen Stichprobe.

    (Ich bitte höflich um Nachsicht für die Korrektur.)

    Diesen Kommentar: Zitieren
  13. #963 | galileo2609 | 23. August 2011, 00:44

    UebbingTM

    ich gebe ihnen noch ein paar Tipps zur Erfüllung ihrer Hausaufgaben:
    1. sehen sie sich mal die Ausgangsverteilungen bei R. Frühwirth an
    2. Deklinieren sie ihre PseudomathematikTM einmal für den Fall eines sechsflächigen Standardwürfels durch, mit dem sie die Augenzahl ‚Sieben‘ würfeln wollen.

    galileo2609

    Diesen Kommentar: Zitieren
  14. #964 | Rudolf Uebbing | 23. August 2011, 01:17

    Wir sind hier bei binominalverteilten Beobachtungen als auch bei Beobachtungen, die zur Poisson-Verteilung zählen können – als erste vorläufige Modellannahmen zur weiteren Verdeutlichung halte ich diese Verteilungen für zulässig (es gibt keine besseren – wenn doch, welche ?).

    Anmerkung:
    Haereticus hatte die drei wichtigen Merkmale
    der Poisson-Verteilung als kompatibel dargestellt.

    Das Urnenmodell wurde von Solkar vorgeschlagen
    (Binominalmodell).

    Die Voraussetzungen bei den Verteilungen gem.
    R. Frühwirth unterliegen einem höheren
    Detaillierungsgrad aus statistischer Sicht, insofern a-priori und a-posteriori
    Situationen einbezogen werden. Die Konfidenzintervalle
    hingegen unterscheiden sich in beiden Fällen nicht wesentlich oder nur marginal.

    Lambda = 1 und der
    Erwartungswert = ca. 1/10^-47 als Wahrscheinlichkeitsangabe
    passen zahlenmäßig und inhaltlich
    zu der wissenschaftlicherseits getätigten Angabe der Wahrscheinlichkeitsgrenze von 2*10**(-36).

    Die Wahl von Lambda ungleich Null oder auch dem
    Erwartungswert der Auslösewahrscheinlichkeit bei
    einer einzigen Teilchenkollisionen ungleich Null halte ich für unabhängig von a-priori oder a-posteriori-Voraussetzungen – dem Grunde nach wird das schöne Skript von R. Frühwirth nicht benötigt,
    wo ich von überzeugt bin.

    In diesen Ergebnissen spiegelt sich lediglich
    das tatsächliche physikalische Unwissen wieder,
    was Dr. M. Dressler ausdrücklich
    berücksichtigt haben will und was auch
    die genannten 4 Physiker – ihnen sei es gedankt ! –
    schlussrichtig umsetzen.

    Welches sind nun Gegengründe ?

    Warum sollten die Autoren Jaffe, Busza, Sandweiss
    und Wilczek in einem Widerspruch zu einfachen, statistischen Basiserkenntnissen stehen ??

    Die Folge der Erkenntnis, dass Restrisiken
    tatsächlich existieren, kann doch nur
    sein, besonders auf der Hut zu sein –
    der Eindruck besteht, dass mit dem LSAG-Report
    diese Anstrengungen beendet seien ? Sehen
    Sie das nicht genauso ?

    Diesen Kommentar: Zitieren
  15. #965 | Solkar | 23. August 2011, 07:37

    Ihre merkwürdigen Gefühlreflexionen sind leider nicht geeignet, das Verständnis von Quantenphysik zu verbessern. – Ich bedauere sehr den schlimmen Eindruck, den Sie beschreiben.

    *lol*

    Und weil das so „merkwürdig“ ist, mussten Sie’s noch gleich noch in der letzten Nacht unter ~200 Zeilen zusammenhangloser Text- und Zahlenpickerei begraben? :mrgreen:

    Btw – iwie kann ich mich nicht entsinnen, Ihnen versprochen zu haben, Ihnen hier dabei zu helfen, Ihr „Verständnis“ von ‚Quantenphysik‘ zu vertiefen…

    Diesen Kommentar: Zitieren
  16. #966 | Solkar | 23. August 2011, 07:51

    Ach so, und ‚Uebbing‘

    #162 | Rudolf Uebbing | 23. August 2011, 01:17

    Das Urnenmodell wurde von Solkar vorgeschlagen
    (Binominalmodell).

    So implizieren Sie, dass ich den Begriff „Binominalmodell“ benutzt hätte.

    Wo bitte sollte das passiert sein?

    Diesen Kommentar: Zitieren
  17. #967 | haereticus | 23. August 2011, 10:30

    @ alle:

    Also besteht noch ein Fünkchen Hoffnung für unseren agitatorischen
    Kandidaten, obwohl er seine Hausaufgaben auf eine ihn bezeichnende
    Weise umgedeutet und verbogen hat, offenbar, um den Anforderungen an
    den Denkapparat möglichst zu entgehen.
    Die als Ersatz abgelieferten, schier endlosen Tiraden
    vergällen einem das Lesen und bieten Aussagen gleichsam
    wie bunten Wackelpudding in Senfsoße an.

    Es geht alles viel einfacher:

    Bleiben wir zunächst bei der Poisson-Verteilung (PVT) mit dem
    Parameter L (für Lambda)
    Pk{X=K} = (L^K/K!)*e^(-L) ,
    die sich für X=0 zu
    P0=e^(-L)
    vereinfacht.
    L bezieht sich dabei auf eine repräsentative Stichprobe von N Experimenten
    mit X=0 Ereignissen und ist unbekannt.

    L muss somit definiert, oder abgeschätzt werden.
    Wendet man das Bayes’sche Theorem auf die Verteilung P0 an, so erhält
    man trivialerweise die Formel
    A{L>=G} = e^(-G)
    als Wahrscheilichkeit dafür, dass L größer oder gleich dem
    geschätzten Wert G ist.

    Für die Anwendung der PVT muss die Beziehung
    L=N*p=const. und somit p=L/N
    gelten, wobei p die a priori Ereignis-Wahrscheilichkeit ist.
    Bei N=10^47 ergibt sich also p=10^(-47).

    Die Wahrscheinlichkeit bzw. Aussagesicherheit, dass bei
    N=10^47 Kollisionen mindestens ein Ereignis (Vakuumtransition)
    eintritt, ergibt sich dann zu AN = 1/e , d.h. AN ~ 0.3679.

    Da die PVT unbeschränkt teilbar ist, kann man für ein ‚RHIC-Packet‘
    von NR=2*10^11 Kollisionen schliessen, dass die Wahrscheinlichkeit
    für das Auftreten mindestens eines Ereignisses gleich
    AR = AN*NR/N ~ 7.36*10^(-37)
    ist.

    Herrn Uebbing und Anhängerschaft diene folgende Illustration, wie
    ich hoffen will, zur Beruhigung :
    Die berechnete Wahrscheinlichkeit AR entspricht etwa der Wahrscheinlichkeit,
    aus einer ‚Lottokugel‘ mit einem Radius von 700000 Kilometern
    (also mehr als die doppelte Entfernung Erde-Mond), der mit Sandkörnern
    der Größe 1 Millimeter gefüllt ist, bei der ersten Zufallsziehung
    das einzige schwarze, aus ansonsten weissen Körnern, zu erhalten.
    Bitte nachrechnen, Herr Uebbing! Geht das?

    Das war’s also, soferne man L=0 ausschliesst, d.h. wenn man die
    Möglichkeit einer Vakuumtransition infolge einer Kollision
    (sozusagen, um’s Verrecken) nicht ausschliessen will.
    Kann man diese Möglichkeit durch die physikalischen Gegebenheiten
    ausschliessen, braucht man eine solche, probabilistische Risikobetrachtung
    mit anschliessender Pickerei erst gar nicht durchzuführen.

    SUMMA SUMMARUM:
    Es bedarf weder ausufernder Zitate noch irgenwelcher plakativen
    Schlagworte und Tabellen-Krimskrams, um dieses wirklich einfache Problem
    zu behandeln, sondern es reicht ein bisschen Wissen, Logik und guter Wille.

    @ Uebbing:

    Herr Uebbing, es wäre jetzt doch angebracht, dass Sie endlich eine kurze,
    deutliche Antwort zur Frage geben:

    Was sagt Ihnen die Binomialverteilung
    P{x|n) = (n!/(x!*(n-x)!)*p^x*(1-p)^(n-x)
    über die a priori Wahrscheinlichkeit p aus, wenn x und n bekannt sind?

    Ich habe nämlich keine große Lust, den Fall Binomialverteilung
    extra noch einmal für Sie abzuhandeln, wenn Sie sich weiterhin weigern,
    klare Antworten auf klare Fragen zu geben.
    Versuchen Sie doch einmal zu beweisen, dass Sie sich nicht nur
    dilettantisch und abschweifend mit dem Thema beschäftigen, auch,
    wenn es Ihnen schwer fallen sollte, das nervende Schwafeln sein zu lassen.

    Diesen Kommentar: Zitieren
  18. #968 | Rudolf Uebbing | 23. August 2011, 10:58

    An haereticus:

    Sie schreiben:
    „Da die PVT unbeschränkt teilbar ist,
    kann man für ein ‘RHIC-Packet’
    von NR=2*10^11 Kollisionen schliessen,
    dass die Wahrscheinlichkeit für das Auftreten
    mindestens eines Ereignisses gleich
    AR = AN*NR/N ~ 7.36*10^(-37) ist.“

    Ihr errechneter Wert entspricht ca. ein Drittel von dem
    von Jaffe, Busza, Sandweiss und Wilczek angegebenem Wert
    – mit 2*10^(-36) beziffert – für eine Wahrscheinlichkeitsobergrenze
    bezüglich eines bestimmten Schadenfalles.

    Damit entsprechen Sie prinzipiell – aus Ihren statistischen
    Erwägungen heraus – nicht dem von JBSW und anderen
    n i c h t nachgewiesenen Risikowert von „exakt Null“,
    sondern einer Obergrenze für ein R e s t r i s i k o,
    welches hier aus genau einer
    der vier diskutierten Gefahrenverdachtskategorien herrührt.
    – Dies halte ich für sehr wichtig.

    Bitte, lassen Sie mich meinen,
    dass die Einräumung und die Eingrenzung eines Restrisikos
    für die Behandlung im Rahmen eines Risikomanagementes
    ein ganz entscheidender Fortschritt ist,
    auch wenn wie hier lediglich ein ultrakleiner
    Zahlenwert wie bis zu 2*10^(-36) bedeutsam ist.

    Die explizite Anerkennung eines R e s t r i s i k o s
    steht meines Wissens seitens des Experimentbetreibers CERN aus;
    ein Fehlen oder Ausbleiben dieser Anerkennung ist geeignet, in der Öffentlichkeit einen Irrtum von besonderer Bedeutung zu erregen.

    Diesen Kommentar: Zitieren
  19. #969 | haereticus | 23. August 2011, 11:32

    @ Uebbing, #166:

    Lesen Sie bitte nocheinmal, was ich in #155 geschrieben habe:

    Das war’s also, soferne man L=0 ausschliesst, d.h. wenn man die
    Möglichkeit einer Vakuumtransition infolge einer Kollision
    (sozusagen, um’s Verrecken) nicht ausschliessen will.
    Kann man diese Möglichkeit durch die physikalischen Gegebenheiten
    ausschliessen, braucht man eine solche, probabilistische Risikobetrachtung
    mit anschliessender Pickerei erst gar nicht durchzuführen.

    Sie sind der, welcher das physikalisch Unmögliche um’s Verrecken
    nicht ausschliessen will.
    Wenn man Ihnen, weil Sie selber es nicht können, vorrechnet,
    dass selbst dann ein verschwindend kleines ‚Restrisiko‘ herauskommt, negieren Sie das und geben Sich immer noch nicht zufrieden.

    Zum nächsten:
    Was mein Ausdruck AR bedeutet, habe ich deutlich erklärt. Bitte verwechseln oder vergleichen Sie das nicht mit den Angaben anderer, deren Bedeutung und Inhalt Sie ebenfalls nicht verstanden haben.
    Für meine Berechnungsart stehe ich gerade.

    Wenn Sie nun schon wieder mit Ihrer agitatorischen Polemik anfangen wollen,
    so lässt das nur den Schluss zu, dass Sie ein unverbesserlicher, verbohrter
    Querulant sind.

    Und jetzt drehen Sie einmal an der Lottokugel, da sind Sie gut aufgehoben.
    Falls Sie das schwarze Sandkorn ziehen, dürfen Sie weiterschwafeln,
    ansonsten lassen Sie Ihr dummdreistes Anschleimen.

    Diesen Kommentar: Zitieren
  20. #970 | Solkar | 23. August 2011, 11:55

    ‚Uebbing‘

    Ich warte immer noch auf den Nachweis, dass ich vor Ihrer #162 irgendwo hier im Blog den Ausdruck ‚Binominalmodell‘ benutzt hätte.

    Diesen Kommentar: Zitieren
  21. #971 | Rudolf Uebbing | 23. August 2011, 13:41

    An Solkar:

    Das Urnenmodell kann als Obermenge eines Binominalmodelles
    verstanden werden, da im Urnenmodell z.B. Kugeln mit mehr als zwei Farben denkbar sind,
    im Binominalmodell haben wir vornehmlich z w e i
    Merkmale – wie der Name besagt.

    Wortwörtlich haben Sie das
    „Urnenmodell“ „vorgeschlagen“ – nicht das Binominalmodell.
    Daher hatte ich „( )“ verwendet.

    Diesen Kommentar: Zitieren
  22. #972 | Rudolf Uebbing | 23. August 2011, 14:00

    An haereticus:

    Was ein „verschwindend kleines ‘Restrisiko’ “
    darstellt, bedarf im vorliegenden Fall eines
    gesellschaftlich herbeigeführten Konsenses
    und kann einzelnen Menschen, auch nicht
    dem Experimentbetreiber, alleine überlassen
    bleiben. Hier ist auch der Auftraggeber
    gefragt – geeignete Institutionen von ausreichend
    hohem Rang.

    Desweiteren ist anzumerken:

    a) Die kleine nach oben hin mit 2*10^-36
    bezifferte und begrenzte Gefahrenwahrscheinlichkeit bezieht
    sich n u r auf eine der vier diskutierten
    Gefahrenkategorien.

    b) Entsprechende konkrete Bezifferungen für weitere
    Obergrenzen zu den Gefahrenwahrscheinlichkeiten
    der anderen Gefahrenverdachtskategorie
    f e h l e n. Nach menschlichem Ermessen ist
    ein Urteil von „exakt Null“ nicht möglich.
    Hierzu können systematisch Irrtumspotenziale
    analysiert und ausgewertet werden.
    (Das bezeichne ich als Auslassung des
    LSAG-Reportes 2008).

    c) Die Experimente bedürfen einer Experimentierkultur,
    die den aktuellen Erfordernissen entsprechen –
    d.h. zum Beispiel wäre der Vorschlag einer
    ständigen, einer begleitenden Analyse hin auf Risikoverdachtsmomente
    auf der Basis von noch zu erarbeitenden
    Normen zu prüfen – wie ich meine – zu realisieren.

    Diesen Kommentar: Zitieren
  23. #973 | Solkar | 23. August 2011, 14:49

    #169 | Rudolf Uebbing | 23. August 2011, 13:41

    Wortwörtlich haben Sie das “Urnenmodell” “vorgeschlagen” – nicht das Binominalmodell.

    Aha! So sehe ich das auch…

    Na, wollten Sie mir da mal wieder auf prall was unterschieben, ‚Uebbing‘? :mrgreen:

    Nach Ihrem Auftriit gegegentlich des Maple-Vierzeilers von neulich müssen Sie sich die Frage schon gefallen lassen.

    Ich kenne übrigens auch nur eine „Binominalverteilung„; aus letzterer phantasieren Sie ja gerade sich die Varianz eines einzelnen scharfen Peaks zusammen.

    Diesen Kommentar: Zitieren
  24. #974 | haereticus | 23. August 2011, 15:50

    @ | Rudolf Uebbing | 23. August 2011, 14:00

    Ich vermute, dass es mit Ihnen keinen Konsens geben wird,
    solange noch das kleinste Risiko bei irgendeiner Berechnung
    herauskommt.

    Auch ein ‚Restrisiko‘ von z.B. 10^(-10000000000000000) würde
    wohl einen Vollidioten nicht zufrieden stellen, denn es müsste ja vorher
    ein Konsens herbeigeführt werden, den er aber um alles in
    der Welt vermeidet.

    Sie brauchen das Restrisiko um Ihre armselige Provenienz
    auf Ihrer erwählten Bühne der Eitelkeit zu rechtfertigen.
    Ein solches Verhalten ist zutiefst verabscheuungswürdig,
    insbesondere, wenn es dazu dient, den Menschen völlig grundlos
    Angst zu machen, um das böse Spiel weitertreiben zu können.

    Nun, Sie missglücktes Beispiel eines Weltenretters, sagen Sie
    doch einmal an, mit welchen Restrisiko Sie noch leben könnten.
    Aber rechnen Sie dann auch aus, wie groß der Radius der
    ‚Lottotrommel‘ (siehe #165) dann sein müsste, dass Sie sich
    vor dem schwarzen Sandkorn sicher fühlen.
    Der doppelte Mondradius reicht Ihnen wohl noch nicht!

    Gehen Sie doch zum Teufel, der wird Ihnen wohl den rechten
    Radius für ein Körnchen Ihres eigenen Kalibers zuweisen, nämlich
    eine kleines schwarzes Loch mit einem glühenden Rand, aus dem
    Sie nur via Hawking-Strahlung wieder in unser so gefährliches Weltall
    zurück verdampfen können. Aber dann wär’s auch mir lieber, die
    Hawking-Strahlung würde einmal ein Auge zudrücken und einfach
    eine lange Pause einlegen.

    Ich denke nicht, dass Ihnen ein normaler Mensch noch Glauben
    oder Vertrauen entgegenbringen wird, der Ihre Beiträge aufmerksam
    und ohne Vorurteil liest.

    Diesen Kommentar: Zitieren
  25. #975 | Solkar | 23. August 2011, 17:00

    *schock* Du Güte gut, was ich da lese….

    #166 | Rudolf Uebbing | 23. August 2011, 10:58

    ….Wahrscheinlichkeitsobergrenze…

    Gar nicht mehr „bounded“ „probability“, ‚Uebbing‘? :mrgreen:

    Ist Ihnen in etwa doch noch in den Sinng ekommen aufgefallen, dass ich vlt etwas besser Englisch spreche als Sie und Ihr Babbelfisch? Hat Markus Ihnen das endlich übersetzt und Ihnen befohlen, dass das in Zukunft so zu übersetzen ist?

    Diesen Kommentar: Zitieren
  26. #976 | ralfkannenberg | 23. August 2011, 17:46

    #124 | Solkar | 21. August 2011, 17:17

    Hallo Solkar,

    besten Dank für die Korrektur !

    Freundliche Grüsse, Ralf Kannenberg

    @achtphasen: Das ich kein Physiker bin dürfte hinreichend bekannt sein, auch wenn ich in Ihrer Heimatstadt ein Vordiplom (mit Nebenfach Physik) erworben habe.

    Diesen Kommentar: Zitieren
  27. #977 | Rudolf Uebbing | 23. August 2011, 18:40

    Rechtschreibefehler – Berichtigung:

    richtig: Binomialverteilung
    richtig: binomiale Verteilung
    richtig: binomial verteilt
    richtig: Binomialmodell

    Das Wort „binominal“ wie in „binominale Nomenklatur“ bezieht sich auf zweinamige Bezeichnungen
    Ich bitte herzlich um Nachsicht. R.U.

    Diesen Kommentar: Zitieren
  28. #978 | Rudolf Uebbing | 23. August 2011, 19:02

    An Haereticus:

    zur Kleinheit des Wertes 2*10^(-36):

    Wenn ich niederländische Vorschriften
    für Planverfahren extrapoliere und die
    optimistischen Zahlen von A. Kent für
    die Menschheitsentwicklung zugrunde lege,
    deuten die niederländischen Normen beispielhaft an,
    dass wir hier durchaus im Bereich von relevanten
    Zahlen gelangen können.

    Die ethische Wahrnehmung der Würde des
    Menschen mag in unterschiedlichen Ländern
    auch unterschiedlich ausgeprägt sein –
    vielleicht sind hier unsere Nachbarn, die Niederlande,
    bereits besonders fortgeschritten.

    Im Falle der 50000-mal relevanteren
    Planzahlen des LHC (gegenüber dem RHIC)
    gelangt man auf Grund der Strenge dieser
    niederländischen Vorschriften in einen
    Bereich, der eine N a c h b e s s e r u n g
    nahelegt
    (Ausschließlich aus Gründen des Vakuumswechsels).

    Zudem gilt:
    Für die anderen drei Gefahrenverdachtskategorien
    sind noch obere Schranken zu Wahrscheinlichkeiten
    zu entwickeln – das heißt, die tatsächliche
    Gefahrenwahrscheinlichkeit kann viel höher
    liegen – daher ist deutlich zu machen:

    a) Eine gesellschaftlich akzeptable Regulierung
    eines Grenzrisikos fehlt.

    b) Nach oben hin begrenzende Werte zu
    Gefahrenwahrscheinlichkeiten f e h l e n zu
    drei diskutierten Risikoverdachtskategorien.

    Diesen Kommentar: Zitieren
  29. #979 | haereticus | 23. August 2011, 21:45

    @ Rudolf Uebbing | 23. August 2011, 19:02

    Die Anwendung der Poisson-Verteilung habe ich eigentlich
    demonstriert, um Ihren Problemen Abhilfe zu schaffen.
    Dabei hat sich streng gerechnet, die Wahrscheinlichkeit
    eines bislang noch nie stattgefundenen Vakuumzerfalles
    innerhalb der RHIC-Laufzeit zu
    AR = AN*NR/N ~ 7.36*10^(-37)
    ergeben.

    Was das bedeutet, habe ich Ihnen ebenfalls anhand eines
    anschaulichen Beispieles (Lotto-Kugel mit Radius 700000 Kilometern)
    vor Augen gestellt. Dabei war verschärfend angenommen, dass die Kugel
    randvoll mit Sandkörnern der Größe 1 Millimeter gefüllt ist.
    Einmal hineingreifen und ein Korn herausnehmen, steht dabei
    für die Gesamtzahl von Kollisionen während der RHIC-Laufzeit
    und nicht für eine einzelne Kollision, wie Sie vielleicht
    irrtümlich annehmen. Also mit anderen Worten steht ein Griff
    in die Kugel für das gesamt RHIC-Experiment!

    Das einzige schwarze Korn aus 1.36*10^36 Körnern beim ersten Griff
    zu erwischen, können Sie doch in alle Ewigkeit vergessen!
    Wollen Sie da noch wirklich weiter diskutieren?

    Zeigt Ihnen dieses relevante Beispiel denn nicht klar, wie
    lächerlich Ihre ganzen Argumente sind?

    Diesen Kommentar: Zitieren
  30. #980 | galileo2609 | 23. August 2011, 21:52

    @haereticus

    haereticus | 23. August 2011, 10:30

    sie gehen zu weit auf UebbingTM zu. Was auch gleich bestraft wurde, wie man nachlesen kann. :mrgreen:

    Auch die Anwendung der Poisson-Verteilung setzt voraus, dass es für Ereignisse eine reale Verteilung gibt mit Ausprägungen für k \geqq 0. Das liegt im Falle der Vakuuminstabilitäten nicht vor. Es gibt weder eine Normal-, eine Binominal- oder gar eine Exponentialverteilung, aus der UebbingTM seinen „gefährlichen“ Wert von ca. 0.37 ableiten könnte.

    Machen wir noch einmal den physiknäheren Vergleich mit dem radioaktiven Zerfall. Nehmen wir gleichzeitig folgendes an: Vakuuminstabilitäten würden uns nicht vernichten können, aber wir haben einen beobachtbaren Indikator, der da sei: um uns herum erlöschen die Himmelskörper: Planeten, Sterne und Galaxien wären von jetzt auf nacher weg. Und wir zählen diese „Zerfälle“. Das entspricht dann im Experiment von Rutherford/Geiger den Zerfällen unter Aussendung eines α-Teilchen. Wir beobachten aber keine Äquivalente von α-Teilchen. Weder in den Stichproben Vergangenheitslichkegel der Erde noch in den RHIC-Experimenten. Vielleicht kommen wir damit endlich mal von den für diese Betrachtung ungeeigneten Werten von 1047 bzw. 2 * 1011 Kollisionen weg, die für die (Nicht-)Anwendbarkeit der Poisson-Verteilung sowieso keine Rolle spielen.

    Für die Anwendung der PVT muss die Beziehung
    L=N*p=const. und somit p=L/N
    gelten, wobei p die a priori Ereignis-Wahrscheilichkeit ist.
    Bei N=10^47 ergibt sich also p=10^(-47).

    Das ist nämlich in konsequenter Anwendung der Poisson-Verteilung falsch. Die Wahrscheinlichkeit für das Eintreten von Vakuuminstabilitäten ist uns nämlich völlig unbekannt. Wir haben auch keine a-priori-Wahrscheinlichkeit {>0} dafür, da uns unser Erfahrungswissen eben nur einen totalen Peak bei {k=0} anzeigt. Und wir haben in unserem angenommenen Beispiel auch keine Kenntnis darüber, wieviele (nur für uns unschädliche) Vakuuminstabilitäten wirklich existieren. Wir haben nur unsere Messungen des Indikators dafür.

    Was bleibt ist der Erwartungswert n * p (μ) des Indikators ‚Erlöschen der Himmelskörper‘ (X) aus dem Produkt aus k * X pro standardisierter Zeiteinheiten (verteilt auf ca. 14 Mrd. Jahre für Stichprobe 1, ca. 10 Jahre für Stichprobe 2).

    Will man dann UebbingTM unbedingt seine Poisson-Verteilung gönnen, ergeben sich die theoretischen Werte rigoros wie bereits gezeigt nach dem Formalismus

    \displaystyle\frac{\mu^k}{k!} {e^{-\mu}}

    zur Tabelle der Poisson-Verteilung:


    k Poisson
    0 1,000
    1 0,000
    2 0,000
    3 0,000
    4 0,000
    5 0,000
    6 0,000
    7 0,000
    8 0,000
    9 0,000
    10 0,000
    0,000


    Was nicht anders zu erwarten ist. Aus nichts folgt eben nichts. Auch in keiner PseudomathematikTM, wenn diese ohne Vergewaltigungen und ohne Einführung von Beliebigkeiten angewendet wird.

    Grüsse galileo2609

    Diesen Kommentar: Zitieren
  31. #981 | galileo2609 | 23. August 2011, 21:57

    P. S. Vielleicht erleichtert das endlich auch mal das Verständnis für die wirkliche Bedeutung der Kollisionszahlen 1047 und 2 * 1011 bei UebbingTM. Wobei ich da nicht wirklich Hoffnung habe.

    Grüsse galileo2609

    Diesen Kommentar: Zitieren
  32. #982 | galileo2609 | 23. August 2011, 22:18

    UebbingTM,

    Rudolf Uebbing | 23. August 2011, 19:02
    Die ethische Wahrnehmung der Würde des
    Menschen mag in unterschiedlichen Ländern
    auch unterschiedlich ausgeprägt sein –
    vielleicht sind hier unsere Nachbarn, die Niederlande,
    bereits besonders fortgeschritten.

    abgesehen davon, dass sie mit dieser Unterstellung wieder einmal nur Agitation aus der Luft gegriffen haben, spielt das für die LHC-Diskussion keine Rolle, wie ich ihnen schon mehrfach dargestellt habe. Schliesslich geht es hier nicht um die Würde eines einzelnen Menschen, sondern um einen potentiellen Totalschaden. Und der wäre, auf die Vakuuminstabilitäten bezogen, nur mit anthropozentrischem Egoismus auf die irdische Menschheit begrenzt zu betrachten. Ihren A. Kent können sie daher völlig in die Tonne treten.

    gelangt man auf Grund der Strenge dieser
    niederländischen Vorschriften in einen
    Bereich, der eine N a c h b e s s e r u n g
    nahelegt
    (Ausschließlich aus Gründen des Vakuumswechsels).

    Aufgrund ihrer Ziegenpeterextrapolation bezüglich der niederländischen Flächennutzungsplanung würde es daher, „(Ausschließlich aus Gründen des Vakuumswechsels)“ keine ‚Nachbesserungen‘ oder ‚Risikominderungen‘ geben dürfen, sondern nur den sofortigen Stopp aller Experimente.

    Zudem gilt:
    Für die anderen drei Gefahrenverdachtskategorien
    sind noch obere Schranken zu Wahrscheinlichkeiten
    zu entwickeln – das heißt, die tatsächliche
    Gefahrenwahrscheinlichkeit kann viel höher
    liegen

    Da zahlt es sich mal wieder aus, wenn man die Sicherheitsanalysen zum RHIC und zum LHC nicht gelesen und/oder nicht verstanden hat. Ausser bei Vakuuminstabilitäten, deren Eintreten man mit einer exakten Null aussschliessen kann, haben die Sicherheitsanalysen mit ihrer Even if-Methode die Eintrittswahrscheinlichkeiten dieser Ereignisse in eskalierenden Schritten mit jeweils 100% zugrunde gelegt.

    Dass am Ende bezüglich des Risikos eines Schadens für die lebende und zukünftige Menschheit dennoch exakt 0% herauskommen, entnehmen sie einfach den Sicherheitsanalysen, die in ihrer Methodik allen ihren Schwindeleien unangreifbar überlegen sind.

    galileo2609

    Diesen Kommentar: Zitieren
  33. #983 | Hans | 23. August 2011, 22:23

    Die ethische Wahrnehmung der Würde des
    Menschen mag in unterschiedlichen Ländern
    auch unterschiedlich ausgeprägt sein –
    vielleicht sind hier unsere Nachbarn, die Niederlande,
    bereits besonders fortgeschritten.

    Na danke, Sie dreckiger Agitator.

    Beim CERN ist es mit der Ethik also nicht so weit her, wie? Wollten Sie das mal wieder implizieren, so ganz u n a b s i c h t l i c h?

    Diesen Kommentar: Zitieren
  34. #984 | galileo2609 | 23. August 2011, 22:43

    Und UebbingTM,

    noch einmal für den grossen Zusammenhang nach den gefühlt letzten tausend Kommentaren. Das Beispiel der Vakuuminstabilitäten war nur ein Aufhänger, um zu zeigen, wie sie an den Gegenstand unter Diskussion, die Experimente an den Teilchenbeschleunigern, herangehen. Diese Teildiskussion war ein (von ihnen zufällig) vorgegebener Ersatz für die Durchdeklinitation ihrer irrationalen Verhaltensweisen am Beispiel Enceladus.

    Es wurde deutlich, dass sie:
    1. völlig inkompetent sind
    2. den Dunning-Krueger-Effekt perfekt realisieren
    3. keine PseudorealitätTM auslassen
    4. alle Einwendungen, Widersprüche und Zerlegungen ignorieren
    5. völlig dikussionsunfähig sind
    6. dagegen zu 100% vom Willen zur Agitation durchtränkt sind

    galileo2609

    Diesen Kommentar: Zitieren
  35. #985 | Rudolf Uebbing | 23. August 2011, 23:05

    Zum Kommentar #180 | galileo2609 | 23. August 2011, 22:18:

    Vielen Dank für die Darstellung der Poisson-Tabelle,
    welche sich tatsächlich nur auf die gegebene
    Stichprobe bezieht, aber als soche nicht verläßlich
    genug ist, eine realistische Prognose zu unterstützen.
    Grund: U n b e k a n n t e Grundgesamtheit, Teilwissen
    (Teilwissen gilt oft als gefährlich). – Ein Maximum Likelihood
    Schätzer kann n i c h t die gegebenen Anforderungen erfüllen.

    Dem Beitrag entnehme ich die klare Zustimmung
    zu einer völligen Negierung von Restrisiken der vier
    diskutierten Gefahrenverdachtskategorien im Falle
    von Beschleunigern mit gegenläufigen Teilchenstrahlen.

    Meine persönliche Meinung dazu:
    Diese Position kann und muss weiter entwickelt werden.
    Ein entscheidendes Hilfsmittel dazu ist die
    Entwicklung und der Einsatz eines PSA-Sicherheitsmodelles,
    welches im wesentlichen auf Wahrscheinlichkeitslogik basiert.

    Insbesondere veranlaßt hier die bestehende, beträchtliche
    physikalische Unkenntnis über die Wirkmechanismen
    von Teilchenkollisionen
    – in Übereinstimmung mit der klaren Zahlenangabe der
    Wissenschaftler Jaffe,
    Busza, Sandweiss und Wilczek zu einer bestimmten Wahrscheinlichkeitsobergrenze –
    s o w i e das hier obligatorisch anzuwendende Prinzip
    der worst-case-Annahme
    dazu, k e i n e n abschließenden wissenschaftlichen Nachweis
    eines Risikos mit dem Wert „exakt Null“ erkennen zu können.

    Ich möchte behaupten, eine neutrale Bewertung
    kommt zu dem gleichen Ergebnis.

    Das ist schon alles:
    Die Existenz von nicht widerlegbaren Restrisiken –
    auch in Übereinstimmung mit dem Astrophysiker
    Dr. R. Plaga – hat vernünftigerweise, wohl zu überlegende
    und zu dosierende Konsequenzen für ein Risikomanagement.

    Wer ein Risiko oder ein Restrisiko für tatsächlich nullwertig hält,
    hat schon in diesem Moment verloren – manchmal eine Lebenserfahrung.

    Überraschende Erkenntnisse kann es jeden Moment
    geben – deswegen allein ist schon die ständige
    Risikobeobachtung (mittels eines – auch nur durch einen einzigen
    Rechner gestützten – Sicherheitsmodelles) als Daueraufgabe
    nicht nur sinnvoll, sondern ich halte diese Art des
    Risikomanagementes für unabdingbar – durchaus verstehbar
    als Ausdruck einer physikalischen Experimentierkultur des 21. Jahrhundertes.

    Diesen Kommentar: Zitieren
  36. #986 | galileo2609 | 23. August 2011, 23:23

    Und UebbingTM,

    Rudolf Uebbing | 23. August 2011, 23:05
    Vielen Dank für die Darstellung der Poisson-Tabelle,
    welche sich tatsächlich nur auf die gegebene
    Stichprobe bezieht, aber als soche nicht verläßlich
    genug ist, eine realistische Prognose zu unterstützen.

    sie werden das auch weiter ignorieren, ist mir klar. Beide Stichproben sind gross genug, um verlässlich auf die Grundgesamtheit von Vakuuminstabilitäten, die sich bis ausserhalb unseres Vergangenheitslichtkegels erstreckt, schliessen zu können und damit die Isotropie der Naturgesetze bestätigt. Merke: wir befinden uns immer noch im Bereich der Physik! Somit ist ihr Unfug

    Grund: U n b e k a n n t e Grundgesamtheit

    nach bester wissenschaftlicher Praxis widerlegt.

    Den Rest ihres Geschwurbels werde ich nicht erneut beantworten. Er bestätigt lediglich die in #182 explizierte und nicht abschliessende Liste ihres hinreichend bekannten dumpfbackigen Agitierens bar jeder Kompetenz.

    Diskussion zu Ende.

    galileo2609

    Diesen Kommentar: Zitieren
  37. #987 | galileo2609 | 23. August 2011, 23:34

    Ein abschliessendes Fazit UebbingTM,

    Rudolf Uebbing | 23. August 2011, 23:05Dem Beitrag entnehme ich die klare Zustimmung
    zu einer völligen Negierung von Restrisiken der vier
    diskutierten Gefahrenverdachtskategorien im Falle
    von Beschleunigern

    unsere Argumente und ihre PseudoargumenteTM sind ausgetauscht. Wir halten uns an die gute wissenschaftliche Praxis, sie nicht. Wir haben die Daten auf unserer Seite, sie haben keine.

    Die implizierte Diffamierung, wir würden fahrlässig handeln und Risiken negieren, weisse ich entschieden zurück. Sie haben über drei Jahre nachgewiesen, dass sie keinen substanziellen Nachweis einer Gefährdung der Menschheit durch Experimente wie den LHC führen können. Mit vollkommen irren und beliebigen Halluzinationen muss sich kein rational denkender und handelnder Mensch befassen. Und damit sind sie am Ende angelangt. Geniessen sie ihre Restlaufzeit.

    galileo2609

    Diesen Kommentar: Zitieren
  38. #988 | haereticus | 24. August 2011, 13:00

    @ galileo2609 | 23. August 2011, 21:52

    Dass vom Uebbing jeder Beitrag umgedeutet wird, ist nichts Neues.
    Man kann es wirklich als Strafe empfinden, wenn man zum wiederholten
    Male versucht hat, Ihm seinen Unsinn auszureden, einer neuen Variante
    seiner drolligen Anbiederungsversuche gegenüber zu stehen.

    In Bezug auf die Anwendung wahrscheinlichkeitstheoretischer Methoden
    stimme ich Ihren Ausführungen prinzipiell zu und möchte einige
    grundlegende Bemerkungen beifügen.

    Ich versuche, der Logik Genüge zu tun, indem ich 3 Ausgangspositionen
    des Disputes herauskristallisiere und deren Konsequenzen darlege:

    Position 1 (Realer Zerfalls-Prozess, Zerfalls-Daten vorhanden):

    Wenn ein Zerfallsprozess, wie z.B. der radioaktive Zerfall,
    tatsächlich beobachtet wird, kann man plausibel von einem Poisson-
    Prozess ausgehen.
    In diesem Falle kann die Zerfallsrate µ, bzw. der Erwartungswert L
    aus vorliegenden Beobachtungsdaten mehr oder weniger genau abgeschätzt werden.
    Die Berechnung von Ereigniswahrscheinlichkeiten kann dann i.a. mit
    einer entsprechend hohen Genauigkeit erfolgen.

    Position2 (Kein Zerfalls-Prozess, Kein Zerfall möglich):

    Wenn ein Zerfallsprozess nicht vorliegt, so hat man auch keinen
    Poisson-Prozess vorliegen und kann sich alles weitere ersparen.
    Darauf hatte ich in meinen Beiträgen auch immer wieder deutlich
    hingewiesen. In diesem Falle kann man sagen, dass die Zerfallsrate
    EXAKT NULL ist.

    Jetzt aber der heikle Punkt, nämlich
    Position3 (Vermuteter Zerfalls-Prozess, Kein Zerfall beobachtet):

    Wenn, aus welchen Gründen auch immer, ein Zerfallsprozess vermutet
    wird, steht man vor der Aufgabe, trotz fehlender Zerfallsdaten
    von einer angenommenen Zerfallsrate µ°(Zerfälle/Zeitintervall) oder
    einem angenommenen Erwartungswert L°(Zerfälle bei N Kollisionen) auszugehen.
    Solche Werte muss man sich dann aber buchstäblich ‚aus der Nase ziehen‘
    oder zusammenphantasieren.

    (Auch bei einem vermutlichen Poisson-Prozess muss unabdingbar L=µ*T=p*N=const.
    gelten, ansonsten wäre es kein Poisson-Prozess.
    Dabei ist, nocheinmal gesagt, L der Erwartungswert, N die Anzahl der Kollisionen,
    µ die Ereignisrate, T das Zeitintervall und p die Wahrscheinlichkeit
    eines Zerfalls im Zeitintervall T.)

    Speziell ist dann p°=L°/N=µ°*T/N als implizit angenommene
    Zerfallswahrscheinlichkeit innerhalb des entsprechenden
    Intervalles von N oder T anzusehen.

    (Dazu muss ich noch bemerken, dass Sie Recht hatten, als Sie schrieben

    Für die Anwendung der PVT muss die Beziehung
    L=N*p=const. und somit p=L/N
    gelten, wobei p die a priori Ereignis-Wahrscheilichkeit ist.
    Bei N=10^47 ergibt sich also p=10^(-47).

    Das ist nämlich in konsequenter Anwendung der Poisson-Verteilung falsch.
    Die Wahrscheinlichkeit für das Eintreten von Vakuuminstabilitäten ist uns
    nämlich völlig unbekannt. Wir haben auch keine a-priori-Wahrscheinlichkeit >0
    dafür, da uns unser Erfahrungswissen eben nur einen totalen Peak bei k=0 anzeigt.
    Und wir haben in unserem angenommenen Beispiel auch keine Kenntnis darüber,
    wieviele (nur für uns unschädliche) Vakuuminstabilitäten wirklich existieren.
    Wir haben nur unsere Messungen des Indikators dafür.

    Da war mir ein dummer Bezeichnungs-Fehler unterlaufen, der aber
    auf das Ergebnis meiner Berechnungen keinen Einfluss hat.
    Selbstverständlich bezeichnet p in meinem Beitrag #165
    keine a priori-Wahrscheinlichkeit, sondern den geschätzten
    Wert der Zerfallswahrscheinlichkeit(hier als p° bezeichnet),
    bezogen auf N Kollisionen.)

    Wendet man nun das Bayes’sche Theorem zur Überprüfung von Hypothesen
    auf die Poisson-Verteilung an, so kann man damit z.B. die Hypothese
    L>=L° oder auch die Hypothese µ>=µ° oder sogar p>=p° auf ihre
    Wahrscheinlichkeit überprüfen. Ich hatte die erstere überprüft.

    MEIN FAZIT:
    Es war mir ein Anliegen, darzulegen, dass, selbst wenn man die aus Sicht
    der Position2 obsolete Position3 einnimmt, das abgeschätzbare Risiko
    eines Vakuumzerfalls irrelevant ist.
    Den Beweis dafür habe ich, wie ich glaube, in meinem Beitrag#165
    erbracht.

    Diesen Kommentar: Zitieren
  39. #989 | ralfkannenberg | 24. August 2011, 13:20

    Hallo haereticus,

    was ich einfach nicht verstehe: Warum insistiert Herr Uebbing auf Methoden, die für die Sicherheitsbeurteilung der Erde völlig unzureichend sind ? Insbesondere dann, wenn einem mit analytischen Methoden eine Möglichkeit zur Verfügung steht, die dem probabilistischen Ansatz nicht nur weit überlegen ist, sondern auch ein viel zuverlässigeres Ergebnis liefert ?

    Freundliche Grüsse, Ralf Kannenberg

    Diesen Kommentar: Zitieren
  40. #990 | Rudolf Uebbing | 24. August 2011, 13:30

    Man vergleiche die beiden Aussagen

    a)
    „… das abgeschätzbare Risiko
    eines Vakuumzerfalls irrelevant ist.“

    und

    b)
    “…, the probability of a vacuum transition at RHIC is
    bounded by 2×10^-36.”

    Die Aussage a) wird getragen von anonymisierter Quelle im Web;
    die Aussage b) rührt aus einer wissenschaftlich dokumentierten
    und publizierten Facharbeit der Physiker Jaffe, Busza, Sandweiss
    und Wilczek.

    Diesen Kommentar: Zitieren
  41. #991 | Hans | 24. August 2011, 13:43

    Es gibt keinen inhaltlichen Unterschied zwischen der „anonymisierten Quelle“ und den von „Uebbing“ immer noch nicht inhaltich erfassten Arbeiten von Jaffe et al.

    „Uebbings“ letzter Beitrag ist wieder einmal pure Agitation, selektiv zitierend, längst abgefrühstückte Dinge wiederholend.

    Und natürlich personenbezogen 😀

    Übrigens ist der RHIC mittlerweile gelaufen, „Uebbing“.

    Diesen Kommentar: Zitieren
  42. #992 | Hans | 24. August 2011, 13:49

    Im Übrigen ist die „anonymisierte Quelle“ entsprechend ihrer Beiträge als weitaus kompetenter einzuschätzen als die Person hinter dem Nick „Rudolf Uebbing“.

    Bei „Rudolf Uebbing“ gab es doch etwas zuviel inkompetentes Buzzwordbingo, unstrukturierte Schwurbelei ohne jeden Sinn, als das hier auf eine wirkliche Kompetenz geschlossen werden könnte.

    Aber was schreibe ich da wieder für einen Unsinn, natürlich ist ein Nick „Rudolf Uebbing“ weitaus glaubwürdiger und damit auch kompetenter als eine „anonymisierte Quelle“.

    Diesen Kommentar: Zitieren
  43. #993 | Rudolf Uebbing | 24. August 2011, 14:09

    Sehr geehrter Herr Kannenberg,

    die Ansicht, eine analytische Methode sei
    der probalistischen Methode bezüglich
    der Verlässlichkeit überlegen,
    halte ich für falsch.

    Begründung:
    Jeder Schlussfolgerungsschritt,
    getätigt bei der Anwendung einer analytischen Methode,
    unterliegt selbst dem stochastischen Prinzip,
    – einer bestimmten Zufälligkeit -,
    sobald kontinuierliche Meßwertgrößen darin
    verarbeitet werden.

    Dies ist ein Grund, wieso sich PSA-Methodiken
    bei bestimmten großen technischen Vorhaben
    durchsetzen – auch projektbegleitend –
    als Daueraufgabe bis zum Projektende.

    Eine zweistellige Aussagenlogik, die bei der Anwendung
    von analytischen Methoden oft gebraucht wird,
    lässt sich hingegen als Sonderfall der allgemeineren Wahrscheinlichkeitslogik
    verstehen.

    Einfache ja/nein-Ergebnisse können des
    notwendigerweise mitzuberücksichtigenden Hintergundes entbehren,
    hier auch die Gütemerkmale der Basisdaten.

    Die Berücksichtigung von Verlässlichkeitsangaben gelingt
    hervorragend mit der Wahrscheinlichkeitslogik,
    während sie mit Aussagenlogik im Sande verlaufen kann…

    Somit bieten PSA-gestützte Sicherheitsreporte eine
    verlässlichere Basis für Entscheidungen – sie gehen
    von einer umfassenderen Datenbasis aus und sind
    daher umso realistischer.

    Wir sollten einmal prüfen, was die ISO-Norm 31000
    dazu aussagt. Im LSAG-Report wird meines Wissens
    leider kein Bezug auf Sicherheitsnormungen benannt.

    Mit freundlichen Grüssen

    Rudolf Uebbing

    Diesen Kommentar: Zitieren
  44. #994 | haereticus | 24. August 2011, 16:46

    @ ralfkannenberg | 24. August 2011, 13:20

    Hallo Herr Kannenberg,

    Wie ich gemäß meinen Erfahrungen mit Herrn Uebbing’s Beiträgen
    annehme, ist er überhaupt nicht bereit, analytische Methoden,
    die sein Katastrophenszenario in’s Virtuelle befördern, ernsthaft
    zur Kenntnis zu nehmen. Eher negiert er Sie oder diskretiert
    er Sie, obwohl er Laie und Dilettant auf diesem Sektor ist.

    Er glaubt immer noch, dass eine probabilistische Analyse, natürlich,
    wie er Sie sich vorstellt, ein Restrisiko aufzeigen kann, mit dem
    er weiter agieren kann.

    Genau letzteres wollte ich und habe ich Ihm auch verdorben, so
    sehe ich das. Nun geht er aber wieder zur Negation und Diskretierung
    über, was seiner bisherigen Verhaltensweise nahtlos entspricht.

    Der Mann ist ein Fall für den Psychiater, wenn er ernst meint, was
    er von sich gibt. Meint er es aber nicht ernst, so ist er als
    ein verschlagener, gewissenloser Agitator einzustufen, der auf
    Angstpsychosen setzt, um darauf zu reiten und der auch vor
    Aufwiegelung zur ‚präventiven Notwehr‘ gegen seine ‚Don Quichote’schen
    Windmühlen und deren Müller‘ nicht zurückschreckt.

    Ich persönlich ziehe Brot, aus Mühlen, betrieben von ehrlichen Müllern
    vor, wenn man mir ein alternatives Ekelprodukt, in dem aus
    ‚Sicherheitsgründen‘ garantiert kein Mehl mehr verbacken wurde,
    zum Spottpreis anbietet.
    Mehl kann sich ja, frei nach Uebbing’scher Logik mit einer gewissen
    Restwahrscheinlichkeit in Gips oder auch Sägespäne verwandeln,
    oder etwa nicht?
    Aber das hatten wir damals alles schon!
    Waren das die Naturgesetze oder waren da ‚etliche Uebbings‘ am Werk
    oder waren es gemeine Betrüger?

    Beste Grüsse haereticus

    Diesen Kommentar: Zitieren
  45. #995 | ralfkannenberg | 24. August 2011, 17:00

    die Ansicht, eine analytische Methode sei
    der probalistischen Methode bezüglich
    der Verlässlichkeit überlegen,
    halte ich für falsch.

    Sehr geehrter Herr Uebbing,

    ich halte diesen Punkt für so wichtig, dass ich ihn Punkt für Punkt durchgehen möchte.

    Begründung:
    Jeder Schlussfolgerungsschritt,
    getätigt bei der Anwendung einer analytischen Methode,
    unterliegt selbst dem stochastischen Prinzip,
    – einer bestimmten Zufälligkeit -,
    sobald kontinuierliche Meßwertgrößen darin
    verarbeitet werden.

    Das ist noch zu ergänzen: Jeder Schlussfolgerungsschritt unterliegt einer Fehlerwahrscheinlichkeit (das haben Sie nicht geschrieben) und zusätzlich können wie Sie geschrieben haben Fehler hineinkommen, sobald Messwerte verarbeitet werden. Somit finden sich mögliche Fehler in (1) den Schlussfolgerungsschritten und/oder (2) den Messwerten. Was das übrigens mit „kontinuierlich“ zu tun haben soll entzieht sich meinem Verständnis.

    Dies ist ein Grund, wieso sich PSA-Methodiken
    bei bestimmten großen technischen Vorhaben
    durchsetzen – auch projektbegleitend –
    als Daueraufgabe bis zum Projektende.

    Nein, das hat ganz andere Ursachen, nämlich die, dass man bei grossen technischen Vorhaben aufgrund der Komplexität oftmals keine analytische Analyse vornehmen kann.

    Eine zweistellige Aussagenlogik, die bei der Anwendung
    von analytischen Methoden oft gebraucht wird,
    lässt sich hingegen als Sonderfall der allgemeineren Wahrscheinlichkeitslogik
    verstehen.

    Einverstanden. Dieser Sonderfall zeichnet sich dadurch aus, dass er dem Allgemeinfall weit überlegen ist.

    Einfache ja/nein-Ergebnisse können des
    notwendigerweise mitzuberücksichtigenden Hintergundes entbehren,
    hier auch die Gütemerkmale der Basisdaten.

    Nein, diesen „Hintergrund“ kann man problemlos in den Voraussetzungen der analytischen Methode berücksichtigen.

    Die Berücksichtigung von Verlässlichkeitsangaben gelingt
    hervorragend mit der Wahrscheinlichkeitslogik,
    während sie mit Aussagenlogik im Sande verlaufen kann…

    Genau das Gegenteil ist der Fall, da die „Wahrscheinlichkeitslogik“ aufgrund ihrer vagen Voraussetzungen viel zu ungenaue Ergebnisse liefert, während Sie mit der analytischen Methode genaue Ergebnisse erhalten. Ich weiss übrigens nicht, warum Sie analytischen Methoden konsequent als „Aussagenlogik“ bezeichnen, da Sie ja nur das Ergebnis der analytischen Auswertung einer Prüfung unterziehen und lediglich das Ergebnis dieser Prüfung dann dem Wertebereich {true, false} entspringt.

    Somit bieten PSA-gestützte Sicherheitsreporte eine
    verlässlichere Basis für Entscheidungen – sie gehen
    von einer umfassenderen Datenbasis aus und sind
    daher umso realistischer.

    Da die Voraussetzungen Ihrer Argumentationskette nicht erfüllt ist, lässt sich diese Schlussfolgerung in dieser Form nicht vornehmen.

    Wir sollten einmal prüfen, was die ISO-Norm 31000
    dazu aussagt. Im LSAG-Report wird meines Wissens
    leider kein Bezug auf Sicherheitsnormungen benannt.

    Was ist das Anwendungsgebiet dieser Norm: technische Fragestellungen oder physikalische Fragestellungen ?

    Freundliche Grüsse, Ralf Kannenberg

    Diesen Kommentar: Zitieren
  46. #996 | haereticus | 24. August 2011, 17:07

    In meinem Beitrag #192 habe ich mich vertippt:
    Anstatt ‚präventive Notwehr‘ muss es heissen ‚putative Notwehr‘.

    Diesen Kommentar: Zitieren
  47. #997 | ralfkannenberg | 24. August 2011, 17:17

    Eher negiert er Sie oder diskretiert
    er Sie

    Hallo haereticus,

    ich kann diesen Einwand nicht nachvollziehen, insbesondere kann ich mich auch nicht erinnern, dass Herr Uebbing mich jemals diskreditiert hätte. Gerne erinnern kann ich mich indes an sehr interessante Diskussionen und Impulse über das Auskühlalter von Weissen Zwergen, über ultrakühle Weisse Zwerge sowie über Kollisionswinkel, die wir zum Teil bilateral geführt haben.

    Freundliche Grüsse, Ralf Kannenberg

    Diesen Kommentar: Zitieren
  48. #998 | Solkar | 24. August 2011, 18:18

    @ralfkannenberg

    Hallo Ralf!

    Vlt bin ich da ja anders vorgeprägt, aber ich sehe die Begriffe „analytisch“ und „probabilistisch“ nicht als ein Paar von begrifflichen „Gegensätzen“.

    Als Paare von „Gegensätzen“ (oder besser „Alternativen“) in Bezug auf den Themenkreis erachte ich

    – „analytisch“ vs. „numerisch“
    – „deterministisch“ vs „stochastisch“ (meinetwegen auch „probabilistisch“)
    – „induktiv“ vs „deduktiv“
    – und, wenn man’s ganz hoch hängen will, „empiristisch“ vs. „rationalistisch“

    Grüsse,

    S.

    Diesen Kommentar: Zitieren
  49. #999 | ralfkannenberg | 24. August 2011, 18:46

    Hallo Solkar,

    ich finde es sehr gut, dass Sie das ansprechen, zumal eine Risikoabschätzung ja ebenfalls eine Analyse benötigt. Ich bin somit gerne offen für eine einheitliche Terminologie: Wie soll man den „nicht-probabilistischen Ansatz“ in den Sicherheitsanalysen benennen, bei dem Abschätzungen zur sicheren Seite hin vorgenommen werden (jetzt mal völlig unabhängig davon, ob sich jemand dabei geirrt, falsche Beobachtungsdaten verwendet, einen systematischen Fehler übersehen oder sich ganz banal verrechnet hat) ?

    Die Vokabel „deterministisch“, die auch von Herrn Uebbing verwendet wird, finde ich persönlich etwas irreführend; aber wenn jeder hierunter dasselbe versteht, können wir uns gerne auf dieses Wort einigen.

    Freundliche Grüsse, Ralf

    Diesen Kommentar: Zitieren
  50. #1000 | Rudolf Uebbing | 24. August 2011, 18:51

    Zu #193 | ralfkannenberg | 24. August 2011, 17:00

    Sehr geehrter Herr Kannenberg,
    herzlichen Dank, dass Sie detailliert auf
    Argumentationen eingehen. – Ihre Gründe
    möchte ich einstweilen stehen lassen und sie dann doch
    ebenso detailliert spätestens im Laufe
    der nächsten Woche beantworten –
    mit freundlichem Gruß – R. Uebbing

    Diesen Kommentar: Zitieren

Schreibe einen Kommentar

Beachte: XHTML ist erlaubt. Deine Email-Adresse wird nicht angezeigt!
Erlaubte XHTML-Tags sind: <a href="" title=""> <abbr title=""> <acronym title=""> <b> <blockquote cite=""> <br> <cite> <code> <del datetime=""> <em> <i> <img src="" width="" height=""> <li align=""> <ol start="" type=""> <q cite=""> <s> <strike> <strong> <sub> <sup> <ul type="">

Abonniere Kommentare mittels RSS