Otto E. Rössler – Anthologie eines Welträtsellösers, die Fortsetzung
Nach über 2.000 Kommentaren hat die Blog-Software ihre Grenzen erreicht. Der Artikel „Otto E. Rössler – Anthologie eines Welträtsellösers“ war temporär nicht mehr aufrufbar. Deshalb geht es mit den Kommentaren nun hier weiter. Die vorangegangene Diskussion ist weiter unter dem Originalbeitrag einsehbar und zitierbar.
‚Uebbing‘ ,
das hier
#147 | Rudolf Uebbing | 22. August 2011, 08:00
ist seit gestern (s. #144) nicht richtiger geworden.
Bei [BJSW] steht an der fraglichen Stelle eine konkret bezifferte obere Schranke für eine Wahrscheinlichkeit und eben nicht eine konkret bezifferte Wahrscheinlichkeit.
Abgesehen davon wäre ein „konkret bezifferter endlicher Wert“ immer beschränkt, nämlich durch sich selbst; somit ist Ihre falsche Aussage nicht einmal redundanzfrei.
Ach, und desweiteren, ‚Uebbing‘,
was war eigentlich bei Ihrer #135 in Sie gefahren?
Sie
– radebrechen sich hier in Ihrem Blockwarts-Duktus solchen Unsinn zusammen, dass man nicht weiss ob man brechen oder schreien soll
– kriegen, wie gezeigt, die Bedeutung einer einfachen Phrase im Englischen nicht auf die Reihe
und wollen jetzt etwas über Kommunikation erzählen?
*lol* rofl*
Lesen Sie vorab lieber bei Friedemann Schulz von Thun etwas über „Selbstkundgabe“ nach.
Oder bei Watzlawick die Geschichte mit dem Hammer; letztere könnte sich gerade für Sie als Augenöffner erweisen.
Zum Beitrag #149 22. August 2011, 11:21:
Damit es leichter fällt, zu erkennen, ob und wie
das Wort „Schranke“ gebraucht wurde und wie
die Begrenzung zu verstehen ist, hier bitte nochmal
das Originalzitat:
„…, the probability of a vacuum transition at RHIC is
bounded by 2×10^-36.“
in
Review of Speculative „Disaster Scenarios“ at RHIC
R.L. Jaffe, W. Busza, J.Sandweiss, F. Wilczek
http://arxiv.org/abs/hep-ph/9910333v3
Der Wert von 2×10^-36 bezieht sich dabei auf
einen bestimmten Experimentumfang des
RHIC (2×10^11 Teilchenkollisionen).
Dabei setzt sinnvollerweise eine Begrenzung mittels des
Wertes 2×10^-36 grundsätzlich
die Existenz einer Wahrscheinlichkeit größer gleich
Null voraus.
Die Hausaufgaben wieder nicht erledigt, aber so ein geistiges Armutszeugnis, dass der Kommentar doch noch online geht.
Kommentar #151 freigegeben.
‚Uebbing‘,
der moderativen Anmerkung von galileo zu #151
ist zuzustimmen.
Er schafft es halt nicht. Soll man sich mit so
einem Dilettanten eigentlich noch herumschlagen?
Er lässt sich ja nicht einmal helfen!
Also will er nicht begreiffen, was er da anstellt.
Wie tief kann ein Mensch vor sich selbst sinken?
Ist das Sturheit, ist es Querulantentum, ist es
Aufmüpfigkeit, ist es Hass, ist es Neid, ist es
Hybris, ist es Widerborstigkeit, ist es Dummheit,
ist es Verblendung, ist es Rechthaberei?
Mit was haben wir es da zu tun, frage ich mich
immer wieder.
Wie kann man denn dauernd Bockmist verzapfen und
hoffen, dass es hingenommen wird?
Es ist diesem Dilettanten Uebbing wohl noch nicht
ganz in’s Bewusstsein gedrungen, dass er gegen
eine Phalanx steht, die er nicht überwinden kann.
Auch der Bogenschütze hat seine Pfeile gerichtet
und schon das Ziel gemutet.
Der Pfeil liegt aber noch auf der Sehne!
@ Uebbing:
Herr Uebbing, seien Sie vernünftig, ansonsten werden Sie
sogar vor Ihrem vielleicht nicht ganz verdummten Gefolge
Busse tun müssen!
Die Mathematik lässt nicht mit sich Schindluder treiben!
Hat Ihnen das Ihr Lehrer vorzeiten nicht
hinter die Löffel geschrieben?
Also, ran an Ihre Hausaufgaben!
@haereticus
#154 | haereticus | 22. August 2011, 21:43
In Bezug auf die dümmliche Reaktanz, die ‚Uebbing‘ mir gegenüber an den Tag legt, ist das eine Mischung aus Neid und nacktem Hass
– Ich bin jünger als er
– geistig beweglicher als er (was kein Kunststück ist)
– und sprech auch noch gerne „ausländisch“
Für einen Spiesser wie den ‚Uebbing‘ reicht das dreimal, um zu hassen.
Ferner kriegt er von mir nie die Anerkennung, nach der er sich, trotz alles Hasses, so verzweifelt sehnt.
An haereticus –
hier die Antwort zur Fragestellung bezüglich lambda –
das heißt zur konkreten Festlegung des
Mittelwertes lambda der Poisson-Verteilung im Falle
von k=0, Stichprobenumfang = 10^47 :
Dazu aus R. Frühwirth, Quelle sh.b.u., S. 530/584 – Zitat:
„Eine Beboachtung aus einer Poissonverteilung
hat den Wert k = 0.
Was kann über den Mittelwert Lambda ausgesagt werden?
Mit der uneigentlichen a-priori-Dichte p(Lambda) = 1 ist die
a-posteriori-Verteilung Ga(1; 1).
Der Modus ist gleich 0,
der Erwartungswert ist gleich 1.
Das HPD-Intervall mit 1 – alpha = 0,95
ist gleich [0; 2,9957].“
Ich wiederhole bitte:
„…der Erwartungswert ist gleich 1.“
Zur weiteren Erläuterung sh. bitte S. 513 aaO – hier zur Binominalverteilung:
„Ein Bereich, in dem alle Werte von theta höhere
a-posteriori-Wahrscheinlichkeit haben als alle Werte
außerhalb des Bereichs, heißt ein
HighPosteriorDensity-Bereich, kurz HPD-Bereich.“
„theta“ wird von R. Frühwirth
als Erfolgswahrscheinlichkeit eingeführt.
Dies sind Bezeichnungsweisen, die sich in
Analysen im Falle von a-priori und
a-posteriori Warscheinlichkeitsanalysen wiederfinden,
sh. b. Quelle u., mithin eine zweistufige Form
der Wahrscheinlichkeitsanalyse.
Ihr Angabe zu „ptotal“ aus dem Beitrag #1949 entspricht dem
Formelausdruck bezüglich einem a-posteriori-Erwartungswert
gem. R. Frühwert – Zitat:
„Der Erwartungswert der a-posteriori-Verteilung im
Binominalmodell ist gleich
E[theta | y] = (y + 1) / (n + 2)“
(s. S. 503 / 584).
(theta s.o.,
„y“ – gem. Frühwirth – zählt zu der „Beobachtung“,
großes Y ist die „Anzahl der Erfolge“ – sh. S. 502.)
Im Beitrag #1949 | haereticus | 13. August 2011, 18:09
fand ich folgenden Satz, dem ich zustimme:
“Für unseren einfachen Spezialfall ergibt sich die
Wahrscheinlichkeit gegen das Auftreten einer Vakuuminstabilität zu
Ptotal = (N+1) / (N+2) … … …”,
womit passend zur Angabe auf Seite 503/584
der a-posteriori Erwartungswert für den Fall k e i n e s
Vakuumswechsels gemeint ist,
hier numerisch also fast der Wert 1.
Die Gegenwahrscheinlichkeit
beträgt ca. 1/10^47, mithin zugleich im Binominalmodell
der Erwartungswert für einen Vakuumswechsel
für genau eine einzige Teilchenkollision,
hier analog zur Frühwirth-Formel
E (thety | y) = (0 + 1) / (10^47 +2),
mithin ziemlich exakt 1/10^47,
mathematisch zur Gegenwahrscheinlichkeit eh
exakt passend übereinstimmend – jedoch wohlgemerkt im
Rahmen des Binominalmodells, welches bei R. Frühwirth zusätzlich a-poriori- und a-posteriori-Merkmal
mit einbezieht.
Der Erwartungswert ist hier eine Wahrscheinlichkeit, sh. Frühwirth, sh. S. 516 / 584.
Für die Poisson-Verteilung mit lambda=1 gilt für
die Wahrscheinlichkeit der Anzahl der Nullziehungen
(hier über alle 10^47 „Ziehungen“)
der Wert = 0,37 = 1/e, mithin die Wahrscheinlichkeit,
dass bei 10^47 Teilchenkollisionen kein ungünstiges
Ereignis eintritt.
Noch eine Anmerkung zum Kehrwert der Eulerzahl,
die im Falle von radioaktiven Zerfallsereignisse
bedeutsam ist – hier in Verbindung
mit
P. Hut / Is it Safe to Disturb the Vacuum?
Nuclear Physics A418 (1984) 301 ff
Noah-Ho~and. Amsterdam
Zitat (S. 302c):
„The persistence of our present vacuum for some 10^10
years implies that a spontaneous transition via tunneling
is unlikely to occur in the immediate future.“
Hier hebe ich einmal hervor: „immediate“ –
dies passt sehr gut zur Aussage des Poissons-Modell,
dass nämlich in den nächsten 14 Milliarden
(unter gleichen Bedingungen wie bislang im Kosmos)
mit ca. 63 Proz. Wahrscheinlichkeit
ein derartiges Ereignis nicht ausschließt –
vorausgesetzt auf Basis der physikalisch gegebenen
Unkenntnis könnte man sich auf eine vorläufige Anwendung
der Poisson-Verteilung einigen.
Wie ich finde ein interessantes Beispiel für das,
was P. Hut als „doubly uncertain theoretical situation“
kennzeichnet. (sh. S. 302c).
1-0,63 ist hier als Gegenwahrscheinlichkeit zu 1/e (Kehrwert der
Eulerzahl) zu verstehen, die mit 37 Proz. die Wahrscheinlichkeit
bei lambda = 1 eine Nullziehung zu erzielen, bezeichnet.
Ein ähnliche Fragestellung mag es beim Problem des
Protonenzerfalles geben, wo immer wieder in den letzten
Jahrzehnten und Jahren die obere
Schranke zu einer Halbwertszeit erhöht wurde.
Ob nun ein zweistufiges Wahrscheinlichkeitsmodell
( a apriori / a posteriori)
oder nur ein einstufiges Modell herangezogen
wird, erscheint mir nicht unbedingt entscheidend zu sein.
Ich beziehe mich im in diesem Beitrag hier, was meine
statistischen Aussagen betrifft,
auf den Autor R. Frühwirth, in dessen Adressangabe
übrigens ein Hinweis auf Hochenergiephysik sich befindet.
Meine Beschränkung in diesem Beitrag
auf die Darstellungen von R. Frühwirth mögen
bitte geprüft werden.
DAS HEIßT NICHT, DASS EIN BINOMINALMODELL
ODER EIN BINOMINALMODELL HIER ZUTREFFEN MUSS,
SONDERN LEDIGLICH, DASS NULLHYPOTHESEN DURCH KONKRETE
WISSENSCHAFTSERGEBNISSE WIDERLEBAR SIND.
Die hier vorgetragenen Modellvorstellungen gem.
dem Binominal- oder gem. dem Modell nach Poisson unterstützen
die unter Einhaltung des Prinzips
der worst-case-Annahmen von JBSW konkret mit einem Zahlenwert bezifferte, nach oben hin begrenzende Wahrscheinlichgrenze für einen hypothetischen, künstlich initiierten Vakuumswechsels.
Die tatsächlich, zugrundeliegenden Verteilungen sind unbekannt; das Szenario eines Vakuumswechsels ist hypothetisch, wenn auch theoretisch n i c h t auschließbar.
Warum das Prinzip der worst-case-Annahme die Anwendung
des Maximum-Likelihood-Schätzers nicht zulässt, hatte
ich erläutert.
Quelle:
http://www.hephy.at/fileadmin/user_upload/Fachbereiche/ASE/Handout_Teil7-8.pdf
Berichtigung –
die doppelte Klammer ((…)) ist meine
Ergänzung im Zitat:
“Der Erwartungswert der a-posteriori-Verteilung
(( im Binominalmodell )) ist gleich
E[theta | y] = (y + 1) / (n + 2)”
(s. S. 503 / 584)
aus R. Frühwirth – Handout-Teil7-8.pdf
An Solkar:
Ihre merkwürdigen Gefühlreflexionen sind leider nicht geeignet, das Verständnis von Quantenphysik zu verbessern. – Ich bedauere sehr den schlimmen Eindruck,
den Sie beschreiben.
@all
Ich lasse das mal so stehen. Auch wenn erneut viel Unfug wiederholt wird, scheint die Disziplinierung zu wirken. UebbingTM hat zwar noch nicht alle Hausaufgaben erledigt, tastet sich aber langsam unter weiterer Preisgabe seiner verqueren Verdrahtungen zumindest langsam ran.
UebbingTM, ich war beinahe dran, ihren besonders krassen Unsinn
zu löschen. Ich lasse ihn aber noch einmal stehen, damit der Gesamtzusammenhang ihrer eigenen Demontierung erhalten bleibt. Das ist kein Freibrief, weiteren Unfug zu posten.
galileo2609
Berichtigung:
(Fortlassung von „1-“ am Textanfang, „die“ durch „der“ ersetzt):
Richtig: „0,63 ist hier als Gegenwahrscheinlichkeit zu 1/e (Kehrwert der
Eulerzahl) zu verstehen, der mit 37 Proz. die Wahrscheinlichkeit
bei lambda = 1 eine Nullziehung zu erzielen, bezeichnet.“
Anmerkung: lambda=1 als Erwartungswert rührt explizit
vom Autor R. Frühwirth für den Fall k = 0
in einer bestimmten zur Poisson-Verteilung zugehörigen Stichprobe.
(Ich bitte höflich um Nachsicht für die Korrektur.)
UebbingTM
ich gebe ihnen noch ein paar Tipps zur Erfüllung ihrer Hausaufgaben:
1. sehen sie sich mal die Ausgangsverteilungen bei R. Frühwirth an
2. Deklinieren sie ihre PseudomathematikTM einmal für den Fall eines sechsflächigen Standardwürfels durch, mit dem sie die Augenzahl ‚Sieben‘ würfeln wollen.
galileo2609
Wir sind hier bei binominalverteilten Beobachtungen als auch bei Beobachtungen, die zur Poisson-Verteilung zählen können – als erste vorläufige Modellannahmen zur weiteren Verdeutlichung halte ich diese Verteilungen für zulässig (es gibt keine besseren – wenn doch, welche ?).
Anmerkung:
Haereticus hatte die drei wichtigen Merkmale
der Poisson-Verteilung als kompatibel dargestellt.
Das Urnenmodell wurde von Solkar vorgeschlagen
(Binominalmodell).
Die Voraussetzungen bei den Verteilungen gem.
R. Frühwirth unterliegen einem höheren
Detaillierungsgrad aus statistischer Sicht, insofern a-priori und a-posteriori
Situationen einbezogen werden. Die Konfidenzintervalle
hingegen unterscheiden sich in beiden Fällen nicht wesentlich oder nur marginal.
Lambda = 1 und der
Erwartungswert = ca. 1/10^-47 als Wahrscheinlichkeitsangabe
passen zahlenmäßig und inhaltlich
zu der wissenschaftlicherseits getätigten Angabe der Wahrscheinlichkeitsgrenze von 2*10**(-36).
Die Wahl von Lambda ungleich Null oder auch dem
Erwartungswert der Auslösewahrscheinlichkeit bei
einer einzigen Teilchenkollisionen ungleich Null halte ich für unabhängig von a-priori oder a-posteriori-Voraussetzungen – dem Grunde nach wird das schöne Skript von R. Frühwirth nicht benötigt,
wo ich von überzeugt bin.
In diesen Ergebnissen spiegelt sich lediglich
das tatsächliche physikalische Unwissen wieder,
was Dr. M. Dressler ausdrücklich
berücksichtigt haben will und was auch
die genannten 4 Physiker – ihnen sei es gedankt ! –
schlussrichtig umsetzen.
Welches sind nun Gegengründe ?
Warum sollten die Autoren Jaffe, Busza, Sandweiss
und Wilczek in einem Widerspruch zu einfachen, statistischen Basiserkenntnissen stehen ??
Die Folge der Erkenntnis, dass Restrisiken
tatsächlich existieren, kann doch nur
sein, besonders auf der Hut zu sein –
der Eindruck besteht, dass mit dem LSAG-Report
diese Anstrengungen beendet seien ? Sehen
Sie das nicht genauso ?
*lol*
Und weil das so „merkwürdig“ ist, mussten Sie’s noch gleich noch in der letzten Nacht unter ~200 Zeilen zusammenhangloser Text- und Zahlenpickerei begraben?
Btw – iwie kann ich mich nicht entsinnen, Ihnen versprochen zu haben, Ihnen hier dabei zu helfen, Ihr „Verständnis“ von ‚Quantenphysik‘ zu vertiefen…
Ach so, und ‚Uebbing‘
#162 | Rudolf Uebbing | 23. August 2011, 01:17
So implizieren Sie, dass ich den Begriff „Binominalmodell“ benutzt hätte.
Wo bitte sollte das passiert sein?
@ alle:
Also besteht noch ein Fünkchen Hoffnung für unseren agitatorischen
Kandidaten, obwohl er seine Hausaufgaben auf eine ihn bezeichnende
Weise umgedeutet und verbogen hat, offenbar, um den Anforderungen an
den Denkapparat möglichst zu entgehen.
Die als Ersatz abgelieferten, schier endlosen Tiraden
vergällen einem das Lesen und bieten Aussagen gleichsam
wie bunten Wackelpudding in Senfsoße an.
Es geht alles viel einfacher:
Bleiben wir zunächst bei der Poisson-Verteilung (PVT) mit dem
Parameter L (für Lambda)
Pk{X=K} = (L^K/K!)*e^(-L) ,
die sich für X=0 zu
P0=e^(-L)
vereinfacht.
L bezieht sich dabei auf eine repräsentative Stichprobe von N Experimenten
mit X=0 Ereignissen und ist unbekannt.
L muss somit definiert, oder abgeschätzt werden.
Wendet man das Bayes’sche Theorem auf die Verteilung P0 an, so erhält
man trivialerweise die Formel
A{L>=G} = e^(-G)
als Wahrscheilichkeit dafür, dass L größer oder gleich dem
geschätzten Wert G ist.
Für die Anwendung der PVT muss die Beziehung
L=N*p=const. und somit p=L/N
gelten, wobei p die a priori Ereignis-Wahrscheilichkeit ist.
Bei N=10^47 ergibt sich also p=10^(-47).
Die Wahrscheinlichkeit bzw. Aussagesicherheit, dass bei
N=10^47 Kollisionen mindestens ein Ereignis (Vakuumtransition)
eintritt, ergibt sich dann zu AN = 1/e , d.h. AN ~ 0.3679.
Da die PVT unbeschränkt teilbar ist, kann man für ein ‚RHIC-Packet‘
von NR=2*10^11 Kollisionen schliessen, dass die Wahrscheinlichkeit
für das Auftreten mindestens eines Ereignisses gleich
AR = AN*NR/N ~ 7.36*10^(-37)
ist.
Herrn Uebbing und Anhängerschaft diene folgende Illustration, wie
ich hoffen will, zur Beruhigung :
Die berechnete Wahrscheinlichkeit AR entspricht etwa der Wahrscheinlichkeit,
aus einer ‚Lottokugel‘ mit einem Radius von 700000 Kilometern
(also mehr als die doppelte Entfernung Erde-Mond), der mit Sandkörnern
der Größe 1 Millimeter gefüllt ist, bei der ersten Zufallsziehung
das einzige schwarze, aus ansonsten weissen Körnern, zu erhalten.
Bitte nachrechnen, Herr Uebbing! Geht das?
Das war’s also, soferne man L=0 ausschliesst, d.h. wenn man die
Möglichkeit einer Vakuumtransition infolge einer Kollision
(sozusagen, um’s Verrecken) nicht ausschliessen will.
Kann man diese Möglichkeit durch die physikalischen Gegebenheiten
ausschliessen, braucht man eine solche, probabilistische Risikobetrachtung
mit anschliessender Pickerei erst gar nicht durchzuführen.
SUMMA SUMMARUM:
Es bedarf weder ausufernder Zitate noch irgenwelcher plakativen
Schlagworte und Tabellen-Krimskrams, um dieses wirklich einfache Problem
zu behandeln, sondern es reicht ein bisschen Wissen, Logik und guter Wille.
@ Uebbing:
Herr Uebbing, es wäre jetzt doch angebracht, dass Sie endlich eine kurze,
deutliche Antwort zur Frage geben:
Was sagt Ihnen die Binomialverteilung
P{x|n) = (n!/(x!*(n-x)!)*p^x*(1-p)^(n-x)
über die a priori Wahrscheinlichkeit p aus, wenn x und n bekannt sind?
Ich habe nämlich keine große Lust, den Fall Binomialverteilung
extra noch einmal für Sie abzuhandeln, wenn Sie sich weiterhin weigern,
klare Antworten auf klare Fragen zu geben.
Versuchen Sie doch einmal zu beweisen, dass Sie sich nicht nur
dilettantisch und abschweifend mit dem Thema beschäftigen, auch,
wenn es Ihnen schwer fallen sollte, das nervende Schwafeln sein zu lassen.
An haereticus:
Sie schreiben:
„Da die PVT unbeschränkt teilbar ist,
kann man für ein ‘RHIC-Packet’
von NR=2*10^11 Kollisionen schliessen,
dass die Wahrscheinlichkeit für das Auftreten
mindestens eines Ereignisses gleich
AR = AN*NR/N ~ 7.36*10^(-37) ist.“
Ihr errechneter Wert entspricht ca. ein Drittel von dem
von Jaffe, Busza, Sandweiss und Wilczek angegebenem Wert
– mit 2*10^(-36) beziffert – für eine Wahrscheinlichkeitsobergrenze
bezüglich eines bestimmten Schadenfalles.
Damit entsprechen Sie prinzipiell – aus Ihren statistischen
Erwägungen heraus – nicht dem von JBSW und anderen
n i c h t nachgewiesenen Risikowert von „exakt Null“,
sondern einer Obergrenze für ein R e s t r i s i k o,
welches hier aus genau einer
der vier diskutierten Gefahrenverdachtskategorien herrührt.
– Dies halte ich für sehr wichtig.
Bitte, lassen Sie mich meinen,
dass die Einräumung und die Eingrenzung eines Restrisikos
für die Behandlung im Rahmen eines Risikomanagementes
ein ganz entscheidender Fortschritt ist,
auch wenn wie hier lediglich ein ultrakleiner
Zahlenwert wie bis zu 2*10^(-36) bedeutsam ist.
Die explizite Anerkennung eines R e s t r i s i k o s
steht meines Wissens seitens des Experimentbetreibers CERN aus;
ein Fehlen oder Ausbleiben dieser Anerkennung ist geeignet, in der Öffentlichkeit einen Irrtum von besonderer Bedeutung zu erregen.
@ Uebbing, #166:
Lesen Sie bitte nocheinmal, was ich in #155 geschrieben habe:
Sie sind der, welcher das physikalisch Unmögliche um’s Verrecken
nicht ausschliessen will.
Wenn man Ihnen, weil Sie selber es nicht können, vorrechnet,
dass selbst dann ein verschwindend kleines ‚Restrisiko‘ herauskommt, negieren Sie das und geben Sich immer noch nicht zufrieden.
Zum nächsten:
Was mein Ausdruck AR bedeutet, habe ich deutlich erklärt. Bitte verwechseln oder vergleichen Sie das nicht mit den Angaben anderer, deren Bedeutung und Inhalt Sie ebenfalls nicht verstanden haben.
Für meine Berechnungsart stehe ich gerade.
Wenn Sie nun schon wieder mit Ihrer agitatorischen Polemik anfangen wollen,
so lässt das nur den Schluss zu, dass Sie ein unverbesserlicher, verbohrter
Querulant sind.
Und jetzt drehen Sie einmal an der Lottokugel, da sind Sie gut aufgehoben.
Falls Sie das schwarze Sandkorn ziehen, dürfen Sie weiterschwafeln,
ansonsten lassen Sie Ihr dummdreistes Anschleimen.
‚Uebbing‘
Ich warte immer noch auf den Nachweis, dass ich vor Ihrer #162 irgendwo hier im Blog den Ausdruck ‚Binominalmodell‘ benutzt hätte.
An Solkar:
Das Urnenmodell kann als Obermenge eines Binominalmodelles
verstanden werden, da im Urnenmodell z.B. Kugeln mit mehr als zwei Farben denkbar sind,
im Binominalmodell haben wir vornehmlich z w e i
Merkmale – wie der Name besagt.
Wortwörtlich haben Sie das
„Urnenmodell“ „vorgeschlagen“ – nicht das Binominalmodell.
Daher hatte ich „( )“ verwendet.
An haereticus:
Was ein „verschwindend kleines ‘Restrisiko’ “
darstellt, bedarf im vorliegenden Fall eines
gesellschaftlich herbeigeführten Konsenses
und kann einzelnen Menschen, auch nicht
dem Experimentbetreiber, alleine überlassen
bleiben. Hier ist auch der Auftraggeber
gefragt – geeignete Institutionen von ausreichend
hohem Rang.
Desweiteren ist anzumerken:
a) Die kleine nach oben hin mit 2*10^-36
bezifferte und begrenzte Gefahrenwahrscheinlichkeit bezieht
sich n u r auf eine der vier diskutierten
Gefahrenkategorien.
b) Entsprechende konkrete Bezifferungen für weitere
Obergrenzen zu den Gefahrenwahrscheinlichkeiten
der anderen Gefahrenverdachtskategorie
f e h l e n. Nach menschlichem Ermessen ist
ein Urteil von „exakt Null“ nicht möglich.
Hierzu können systematisch Irrtumspotenziale
analysiert und ausgewertet werden.
(Das bezeichne ich als Auslassung des
LSAG-Reportes 2008).
c) Die Experimente bedürfen einer Experimentierkultur,
die den aktuellen Erfordernissen entsprechen –
d.h. zum Beispiel wäre der Vorschlag einer
ständigen, einer begleitenden Analyse hin auf Risikoverdachtsmomente
auf der Basis von noch zu erarbeitenden
Normen zu prüfen – wie ich meine – zu realisieren.
#169 | Rudolf Uebbing | 23. August 2011, 13:41
Aha! So sehe ich das auch…
Na, wollten Sie mir da mal wieder auf prall was unterschieben, ‚Uebbing‘?
Nach Ihrem Auftriit gegegentlich des Maple-Vierzeilers von neulich müssen Sie sich die Frage schon gefallen lassen.
Ich kenne übrigens auch nur eine „Binominalverteilung„; aus letzterer phantasieren Sie ja gerade sich die Varianz eines einzelnen scharfen Peaks zusammen.
@ | Rudolf Uebbing | 23. August 2011, 14:00
Ich vermute, dass es mit Ihnen keinen Konsens geben wird,
solange noch das kleinste Risiko bei irgendeiner Berechnung
herauskommt.
Auch ein ‚Restrisiko‘ von z.B. 10^(-10000000000000000) würde
wohl einen Vollidioten nicht zufrieden stellen, denn es müsste ja vorher
ein Konsens herbeigeführt werden, den er aber um alles in
der Welt vermeidet.
Sie brauchen das Restrisiko um Ihre armselige Provenienz
auf Ihrer erwählten Bühne der Eitelkeit zu rechtfertigen.
Ein solches Verhalten ist zutiefst verabscheuungswürdig,
insbesondere, wenn es dazu dient, den Menschen völlig grundlos
Angst zu machen, um das böse Spiel weitertreiben zu können.
Nun, Sie missglücktes Beispiel eines Weltenretters, sagen Sie
doch einmal an, mit welchen Restrisiko Sie noch leben könnten.
Aber rechnen Sie dann auch aus, wie groß der Radius der
‚Lottotrommel‘ (siehe #165) dann sein müsste, dass Sie sich
vor dem schwarzen Sandkorn sicher fühlen.
Der doppelte Mondradius reicht Ihnen wohl noch nicht!
Gehen Sie doch zum Teufel, der wird Ihnen wohl den rechten
Radius für ein Körnchen Ihres eigenen Kalibers zuweisen, nämlich
eine kleines schwarzes Loch mit einem glühenden Rand, aus dem
Sie nur via Hawking-Strahlung wieder in unser so gefährliches Weltall
zurück verdampfen können. Aber dann wär’s auch mir lieber, die
Hawking-Strahlung würde einmal ein Auge zudrücken und einfach
eine lange Pause einlegen.
Ich denke nicht, dass Ihnen ein normaler Mensch noch Glauben
oder Vertrauen entgegenbringen wird, der Ihre Beiträge aufmerksam
und ohne Vorurteil liest.
*schock* Du Güte gut, was ich da lese….
#166 | Rudolf Uebbing | 23. August 2011, 10:58
Gar nicht mehr „bounded“ „probability“, ‚Uebbing‘?
Ist Ihnen in etwa doch noch in den Sinng ekommen aufgefallen, dass ich vlt etwas besser Englisch spreche als Sie und Ihr Babbelfisch?Hat Markus Ihnen das endlich übersetzt und Ihnen befohlen, dass das in Zukunft so zu übersetzen ist?Hallo Solkar,
besten Dank für die Korrektur !
Freundliche Grüsse, Ralf Kannenberg
@achtphasen: Das ich kein Physiker bin dürfte hinreichend bekannt sein, auch wenn ich in Ihrer Heimatstadt ein Vordiplom (mit Nebenfach Physik) erworben habe.
Rechtschreibefehler – Berichtigung:
richtig: Binomialverteilung
richtig: binomiale Verteilung
richtig: binomial verteilt
richtig: Binomialmodell
Das Wort „binominal“ wie in „binominale Nomenklatur“ bezieht sich auf zweinamige Bezeichnungen
Ich bitte herzlich um Nachsicht. R.U.
An Haereticus:
zur Kleinheit des Wertes 2*10^(-36):
Wenn ich niederländische Vorschriften
für Planverfahren extrapoliere und die
optimistischen Zahlen von A. Kent für
die Menschheitsentwicklung zugrunde lege,
deuten die niederländischen Normen beispielhaft an,
dass wir hier durchaus im Bereich von relevanten
Zahlen gelangen können.
Die ethische Wahrnehmung der Würde des
Menschen mag in unterschiedlichen Ländern
auch unterschiedlich ausgeprägt sein –
vielleicht sind hier unsere Nachbarn, die Niederlande,
bereits besonders fortgeschritten.
Im Falle der 50000-mal relevanteren
Planzahlen des LHC (gegenüber dem RHIC)
gelangt man auf Grund der Strenge dieser
niederländischen Vorschriften in einen
Bereich, der eine N a c h b e s s e r u n g
nahelegt
(Ausschließlich aus Gründen des Vakuumswechsels).
Zudem gilt:
Für die anderen drei Gefahrenverdachtskategorien
sind noch obere Schranken zu Wahrscheinlichkeiten
zu entwickeln – das heißt, die tatsächliche
Gefahrenwahrscheinlichkeit kann viel höher
liegen – daher ist deutlich zu machen:
a) Eine gesellschaftlich akzeptable Regulierung
eines Grenzrisikos fehlt.
b) Nach oben hin begrenzende Werte zu
Gefahrenwahrscheinlichkeiten f e h l e n zu
drei diskutierten Risikoverdachtskategorien.
@ Rudolf Uebbing | 23. August 2011, 19:02
Die Anwendung der Poisson-Verteilung habe ich eigentlich
demonstriert, um Ihren Problemen Abhilfe zu schaffen.
Dabei hat sich streng gerechnet, die Wahrscheinlichkeit
eines bislang noch nie stattgefundenen Vakuumzerfalles
innerhalb der RHIC-Laufzeit zu
AR = AN*NR/N ~ 7.36*10^(-37)
ergeben.
Was das bedeutet, habe ich Ihnen ebenfalls anhand eines
anschaulichen Beispieles (Lotto-Kugel mit Radius 700000 Kilometern)
vor Augen gestellt. Dabei war verschärfend angenommen, dass die Kugel
randvoll mit Sandkörnern der Größe 1 Millimeter gefüllt ist.
Einmal hineingreifen und ein Korn herausnehmen, steht dabei
für die Gesamtzahl von Kollisionen während der RHIC-Laufzeit
und nicht für eine einzelne Kollision, wie Sie vielleicht
irrtümlich annehmen. Also mit anderen Worten steht ein Griff
in die Kugel für das gesamt RHIC-Experiment!
Das einzige schwarze Korn aus 1.36*10^36 Körnern beim ersten Griff
zu erwischen, können Sie doch in alle Ewigkeit vergessen!
Wollen Sie da noch wirklich weiter diskutieren?
Zeigt Ihnen dieses relevante Beispiel denn nicht klar, wie
lächerlich Ihre ganzen Argumente sind?
@haereticus
sie gehen zu weit auf UebbingTM zu. Was auch gleich bestraft wurde, wie man nachlesen kann.
Auch die Anwendung der Poisson-Verteilung setzt voraus, dass es für Ereignisse eine reale Verteilung gibt mit Ausprägungen für . Das liegt im Falle der Vakuuminstabilitäten nicht vor. Es gibt weder eine Normal-, eine Binominal- oder gar eine Exponentialverteilung, aus der UebbingTM seinen „gefährlichen“ Wert von ca. 0.37 ableiten könnte.
Machen wir noch einmal den physiknäheren Vergleich mit dem radioaktiven Zerfall. Nehmen wir gleichzeitig folgendes an: Vakuuminstabilitäten würden uns nicht vernichten können, aber wir haben einen beobachtbaren Indikator, der da sei: um uns herum erlöschen die Himmelskörper: Planeten, Sterne und Galaxien wären von jetzt auf nacher weg. Und wir zählen diese „Zerfälle“. Das entspricht dann im Experiment von Rutherford/Geiger den Zerfällen unter Aussendung eines α-Teilchen. Wir beobachten aber keine Äquivalente von α-Teilchen. Weder in den Stichproben Vergangenheitslichkegel der Erde noch in den RHIC-Experimenten. Vielleicht kommen wir damit endlich mal von den für diese Betrachtung ungeeigneten Werten von 1047 bzw. 2 * 1011 Kollisionen weg, die für die (Nicht-)Anwendbarkeit der Poisson-Verteilung sowieso keine Rolle spielen.
Das ist nämlich in konsequenter Anwendung der Poisson-Verteilung falsch. Die Wahrscheinlichkeit für das Eintreten von Vakuuminstabilitäten ist uns nämlich völlig unbekannt. Wir haben auch keine a-priori-Wahrscheinlichkeit dafür, da uns unser Erfahrungswissen eben nur einen totalen Peak bei anzeigt. Und wir haben in unserem angenommenen Beispiel auch keine Kenntnis darüber, wieviele (nur für uns unschädliche) Vakuuminstabilitäten wirklich existieren. Wir haben nur unsere Messungen des Indikators dafür.
Was bleibt ist der Erwartungswert n * p (μ) des Indikators ‚Erlöschen der Himmelskörper‘ (X) aus dem Produkt aus k * X pro standardisierter Zeiteinheiten (verteilt auf ca. 14 Mrd. Jahre für Stichprobe 1, ca. 10 Jahre für Stichprobe 2).
Will man dann UebbingTM unbedingt seine Poisson-Verteilung gönnen, ergeben sich die theoretischen Werte rigoros wie bereits gezeigt nach dem Formalismus
zur Tabelle der Poisson-Verteilung:
Was nicht anders zu erwarten ist. Aus nichts folgt eben nichts. Auch in keiner PseudomathematikTM, wenn diese ohne Vergewaltigungen und ohne Einführung von Beliebigkeiten angewendet wird.
Grüsse galileo2609
P. S. Vielleicht erleichtert das endlich auch mal das Verständnis für die wirkliche Bedeutung der Kollisionszahlen 1047 und 2 * 1011 bei UebbingTM. Wobei ich da nicht wirklich Hoffnung habe.
Grüsse galileo2609
UebbingTM,
abgesehen davon, dass sie mit dieser Unterstellung wieder einmal nur Agitation aus der Luft gegriffen haben, spielt das für die LHC-Diskussion keine Rolle, wie ich ihnen schon mehrfach dargestellt habe. Schliesslich geht es hier nicht um die Würde eines einzelnen Menschen, sondern um einen potentiellen Totalschaden. Und der wäre, auf die Vakuuminstabilitäten bezogen, nur mit anthropozentrischem Egoismus auf die irdische Menschheit begrenzt zu betrachten. Ihren A. Kent können sie daher völlig in die Tonne treten.
Aufgrund ihrer Ziegenpeterextrapolation bezüglich der niederländischen Flächennutzungsplanung würde es daher, „(Ausschließlich aus Gründen des Vakuumswechsels)“ keine ‚Nachbesserungen‘ oder ‚Risikominderungen‘ geben dürfen, sondern nur den sofortigen Stopp aller Experimente.
Da zahlt es sich mal wieder aus, wenn man die Sicherheitsanalysen zum RHIC und zum LHC nicht gelesen und/oder nicht verstanden hat. Ausser bei Vakuuminstabilitäten, deren Eintreten man mit einer exakten Null aussschliessen kann, haben die Sicherheitsanalysen mit ihrer Even if-Methode die Eintrittswahrscheinlichkeiten dieser Ereignisse in eskalierenden Schritten mit jeweils 100% zugrunde gelegt.
Dass am Ende bezüglich des Risikos eines Schadens für die lebende und zukünftige Menschheit dennoch exakt 0% herauskommen, entnehmen sie einfach den Sicherheitsanalysen, die in ihrer Methodik allen ihren Schwindeleien unangreifbar überlegen sind.
galileo2609
Na danke, Sie dreckiger Agitator.
Beim CERN ist es mit der Ethik also nicht so weit her, wie? Wollten Sie das mal wieder implizieren, so ganz u n a b s i c h t l i c h?
Und UebbingTM,
noch einmal für den grossen Zusammenhang nach den gefühlt letzten tausend Kommentaren. Das Beispiel der Vakuuminstabilitäten war nur ein Aufhänger, um zu zeigen, wie sie an den Gegenstand unter Diskussion, die Experimente an den Teilchenbeschleunigern, herangehen. Diese Teildiskussion war ein (von ihnen zufällig) vorgegebener Ersatz für die Durchdeklinitation ihrer irrationalen Verhaltensweisen am Beispiel Enceladus.
Es wurde deutlich, dass sie:
1. völlig inkompetent sind
2. den Dunning-Krueger-Effekt perfekt realisieren
3. keine PseudorealitätTM auslassen
4. alle Einwendungen, Widersprüche und Zerlegungen ignorieren
5. völlig dikussionsunfähig sind
6. dagegen zu 100% vom Willen zur Agitation durchtränkt sind
…
galileo2609
Zum Kommentar #180 | galileo2609 | 23. August 2011, 22:18:
Vielen Dank für die Darstellung der Poisson-Tabelle,
welche sich tatsächlich nur auf die gegebene
Stichprobe bezieht, aber als soche nicht verläßlich
genug ist, eine realistische Prognose zu unterstützen.
Grund: U n b e k a n n t e Grundgesamtheit, Teilwissen
(Teilwissen gilt oft als gefährlich). – Ein Maximum Likelihood
Schätzer kann n i c h t die gegebenen Anforderungen erfüllen.
Dem Beitrag entnehme ich die klare Zustimmung
zu einer völligen Negierung von Restrisiken der vier
diskutierten Gefahrenverdachtskategorien im Falle
von Beschleunigern mit gegenläufigen Teilchenstrahlen.
Meine persönliche Meinung dazu:
Diese Position kann und muss weiter entwickelt werden.
Ein entscheidendes Hilfsmittel dazu ist die
Entwicklung und der Einsatz eines PSA-Sicherheitsmodelles,
welches im wesentlichen auf Wahrscheinlichkeitslogik basiert.
Insbesondere veranlaßt hier die bestehende, beträchtliche
physikalische Unkenntnis über die Wirkmechanismen
von Teilchenkollisionen
– in Übereinstimmung mit der klaren Zahlenangabe der
Wissenschaftler Jaffe,
Busza, Sandweiss und Wilczek zu einer bestimmten Wahrscheinlichkeitsobergrenze –
s o w i e das hier obligatorisch anzuwendende Prinzip
der worst-case-Annahme
dazu, k e i n e n abschließenden wissenschaftlichen Nachweis
eines Risikos mit dem Wert „exakt Null“ erkennen zu können.
Ich möchte behaupten, eine neutrale Bewertung
kommt zu dem gleichen Ergebnis.
Das ist schon alles:
Die Existenz von nicht widerlegbaren Restrisiken –
auch in Übereinstimmung mit dem Astrophysiker
Dr. R. Plaga – hat vernünftigerweise, wohl zu überlegende
und zu dosierende Konsequenzen für ein Risikomanagement.
Wer ein Risiko oder ein Restrisiko für tatsächlich nullwertig hält,
hat schon in diesem Moment verloren – manchmal eine Lebenserfahrung.
Überraschende Erkenntnisse kann es jeden Moment
geben – deswegen allein ist schon die ständige
Risikobeobachtung (mittels eines – auch nur durch einen einzigen
Rechner gestützten – Sicherheitsmodelles) als Daueraufgabe
nicht nur sinnvoll, sondern ich halte diese Art des
Risikomanagementes für unabdingbar – durchaus verstehbar
als Ausdruck einer physikalischen Experimentierkultur des 21. Jahrhundertes.
Und UebbingTM,
sie werden das auch weiter ignorieren, ist mir klar. Beide Stichproben sind gross genug, um verlässlich auf die Grundgesamtheit von Vakuuminstabilitäten, die sich bis ausserhalb unseres Vergangenheitslichtkegels erstreckt, schliessen zu können und damit die Isotropie der Naturgesetze bestätigt. Merke: wir befinden uns immer noch im Bereich der Physik! Somit ist ihr Unfug
nach bester wissenschaftlicher Praxis widerlegt.
Den Rest ihres Geschwurbels werde ich nicht erneut beantworten. Er bestätigt lediglich die in #182 explizierte und nicht abschliessende Liste ihres hinreichend bekannten dumpfbackigen Agitierens bar jeder Kompetenz.
Diskussion zu Ende.
galileo2609
Ein abschliessendes Fazit UebbingTM,
unsere Argumente und ihre PseudoargumenteTM sind ausgetauscht. Wir halten uns an die gute wissenschaftliche Praxis, sie nicht. Wir haben die Daten auf unserer Seite, sie haben keine.
Die implizierte Diffamierung, wir würden fahrlässig handeln und Risiken negieren, weisse ich entschieden zurück. Sie haben über drei Jahre nachgewiesen, dass sie keinen substanziellen Nachweis einer Gefährdung der Menschheit durch Experimente wie den LHC führen können. Mit vollkommen irren und beliebigen Halluzinationen muss sich kein rational denkender und handelnder Mensch befassen. Und damit sind sie am Ende angelangt. Geniessen sie ihre Restlaufzeit.
galileo2609
@ galileo2609 | 23. August 2011, 21:52
Dass vom Uebbing jeder Beitrag umgedeutet wird, ist nichts Neues.
Man kann es wirklich als Strafe empfinden, wenn man zum wiederholten
Male versucht hat, Ihm seinen Unsinn auszureden, einer neuen Variante
seiner drolligen Anbiederungsversuche gegenüber zu stehen.
In Bezug auf die Anwendung wahrscheinlichkeitstheoretischer Methoden
stimme ich Ihren Ausführungen prinzipiell zu und möchte einige
grundlegende Bemerkungen beifügen.
Ich versuche, der Logik Genüge zu tun, indem ich 3 Ausgangspositionen
des Disputes herauskristallisiere und deren Konsequenzen darlege:
Position 1 (Realer Zerfalls-Prozess, Zerfalls-Daten vorhanden):
Wenn ein Zerfallsprozess, wie z.B. der radioaktive Zerfall,
tatsächlich beobachtet wird, kann man plausibel von einem Poisson-
Prozess ausgehen.
In diesem Falle kann die Zerfallsrate µ, bzw. der Erwartungswert L
aus vorliegenden Beobachtungsdaten mehr oder weniger genau abgeschätzt werden.
Die Berechnung von Ereigniswahrscheinlichkeiten kann dann i.a. mit
einer entsprechend hohen Genauigkeit erfolgen.
Position2 (Kein Zerfalls-Prozess, Kein Zerfall möglich):
Wenn ein Zerfallsprozess nicht vorliegt, so hat man auch keinen
Poisson-Prozess vorliegen und kann sich alles weitere ersparen.
Darauf hatte ich in meinen Beiträgen auch immer wieder deutlich
hingewiesen. In diesem Falle kann man sagen, dass die Zerfallsrate
EXAKT NULL ist.
Jetzt aber der heikle Punkt, nämlich
Position3 (Vermuteter Zerfalls-Prozess, Kein Zerfall beobachtet):
Wenn, aus welchen Gründen auch immer, ein Zerfallsprozess vermutet
wird, steht man vor der Aufgabe, trotz fehlender Zerfallsdaten
von einer angenommenen Zerfallsrate µ°(Zerfälle/Zeitintervall) oder
einem angenommenen Erwartungswert L°(Zerfälle bei N Kollisionen) auszugehen.
Solche Werte muss man sich dann aber buchstäblich ‚aus der Nase ziehen‘
oder zusammenphantasieren.
(Auch bei einem vermutlichen Poisson-Prozess muss unabdingbar L=µ*T=p*N=const.
gelten, ansonsten wäre es kein Poisson-Prozess.
Dabei ist, nocheinmal gesagt, L der Erwartungswert, N die Anzahl der Kollisionen,
µ die Ereignisrate, T das Zeitintervall und p die Wahrscheinlichkeit
eines Zerfalls im Zeitintervall T.)
Speziell ist dann p°=L°/N=µ°*T/N als implizit angenommene
Zerfallswahrscheinlichkeit innerhalb des entsprechenden
Intervalles von N oder T anzusehen.
(Dazu muss ich noch bemerken, dass Sie Recht hatten, als Sie schrieben
Da war mir ein dummer Bezeichnungs-Fehler unterlaufen, der aber
auf das Ergebnis meiner Berechnungen keinen Einfluss hat.
Selbstverständlich bezeichnet p in meinem Beitrag #165
keine a priori-Wahrscheinlichkeit, sondern den geschätzten
Wert der Zerfallswahrscheinlichkeit(hier als p° bezeichnet),
bezogen auf N Kollisionen.)
Wendet man nun das Bayes’sche Theorem zur Überprüfung von Hypothesen
auf die Poisson-Verteilung an, so kann man damit z.B. die Hypothese
L>=L° oder auch die Hypothese µ>=µ° oder sogar p>=p° auf ihre
Wahrscheinlichkeit überprüfen. Ich hatte die erstere überprüft.
MEIN FAZIT:
Es war mir ein Anliegen, darzulegen, dass, selbst wenn man die aus Sicht
der Position2 obsolete Position3 einnimmt, das abgeschätzbare Risiko
eines Vakuumzerfalls irrelevant ist.
Den Beweis dafür habe ich, wie ich glaube, in meinem Beitrag#165
erbracht.
Hallo haereticus,
was ich einfach nicht verstehe: Warum insistiert Herr Uebbing auf Methoden, die für die Sicherheitsbeurteilung der Erde völlig unzureichend sind ? Insbesondere dann, wenn einem mit analytischen Methoden eine Möglichkeit zur Verfügung steht, die dem probabilistischen Ansatz nicht nur weit überlegen ist, sondern auch ein viel zuverlässigeres Ergebnis liefert ?
Freundliche Grüsse, Ralf Kannenberg
Man vergleiche die beiden Aussagen
a)
„… das abgeschätzbare Risiko
eines Vakuumzerfalls irrelevant ist.“
und
b)
“…, the probability of a vacuum transition at RHIC is
bounded by 2×10^-36.”
Die Aussage a) wird getragen von anonymisierter Quelle im Web;
die Aussage b) rührt aus einer wissenschaftlich dokumentierten
und publizierten Facharbeit der Physiker Jaffe, Busza, Sandweiss
und Wilczek.
Es gibt keinen inhaltlichen Unterschied zwischen der „anonymisierten Quelle“ und den von „Uebbing“ immer noch nicht inhaltich erfassten Arbeiten von Jaffe et al.
„Uebbings“ letzter Beitrag ist wieder einmal pure Agitation, selektiv zitierend, längst abgefrühstückte Dinge wiederholend.
Und natürlich personenbezogen 😀
Übrigens ist der RHIC mittlerweile gelaufen, „Uebbing“.
Im Übrigen ist die „anonymisierte Quelle“ entsprechend ihrer Beiträge als weitaus kompetenter einzuschätzen als die Person hinter dem Nick „Rudolf Uebbing“.
Bei „Rudolf Uebbing“ gab es doch etwas zuviel inkompetentes Buzzwordbingo, unstrukturierte Schwurbelei ohne jeden Sinn, als das hier auf eine wirkliche Kompetenz geschlossen werden könnte.
Aber was schreibe ich da wieder für einen Unsinn, natürlich ist ein Nick „Rudolf Uebbing“ weitaus glaubwürdiger und damit auch kompetenter als eine „anonymisierte Quelle“.
Sehr geehrter Herr Kannenberg,
die Ansicht, eine analytische Methode sei
der probalistischen Methode bezüglich
der Verlässlichkeit überlegen,
halte ich für falsch.
Begründung:
Jeder Schlussfolgerungsschritt,
getätigt bei der Anwendung einer analytischen Methode,
unterliegt selbst dem stochastischen Prinzip,
– einer bestimmten Zufälligkeit -,
sobald kontinuierliche Meßwertgrößen darin
verarbeitet werden.
Dies ist ein Grund, wieso sich PSA-Methodiken
bei bestimmten großen technischen Vorhaben
durchsetzen – auch projektbegleitend –
als Daueraufgabe bis zum Projektende.
Eine zweistellige Aussagenlogik, die bei der Anwendung
von analytischen Methoden oft gebraucht wird,
lässt sich hingegen als Sonderfall der allgemeineren Wahrscheinlichkeitslogik
verstehen.
Einfache ja/nein-Ergebnisse können des
notwendigerweise mitzuberücksichtigenden Hintergundes entbehren,
hier auch die Gütemerkmale der Basisdaten.
Die Berücksichtigung von Verlässlichkeitsangaben gelingt
hervorragend mit der Wahrscheinlichkeitslogik,
während sie mit Aussagenlogik im Sande verlaufen kann…
Somit bieten PSA-gestützte Sicherheitsreporte eine
verlässlichere Basis für Entscheidungen – sie gehen
von einer umfassenderen Datenbasis aus und sind
daher umso realistischer.
Wir sollten einmal prüfen, was die ISO-Norm 31000
dazu aussagt. Im LSAG-Report wird meines Wissens
leider kein Bezug auf Sicherheitsnormungen benannt.
Mit freundlichen Grüssen
Rudolf Uebbing
@ ralfkannenberg | 24. August 2011, 13:20
Hallo Herr Kannenberg,
Wie ich gemäß meinen Erfahrungen mit Herrn Uebbing’s Beiträgen
annehme, ist er überhaupt nicht bereit, analytische Methoden,
die sein Katastrophenszenario in’s Virtuelle befördern, ernsthaft
zur Kenntnis zu nehmen. Eher negiert er Sie oder diskretiert
er Sie, obwohl er Laie und Dilettant auf diesem Sektor ist.
Er glaubt immer noch, dass eine probabilistische Analyse, natürlich,
wie er Sie sich vorstellt, ein Restrisiko aufzeigen kann, mit dem
er weiter agieren kann.
Genau letzteres wollte ich und habe ich Ihm auch verdorben, so
sehe ich das. Nun geht er aber wieder zur Negation und Diskretierung
über, was seiner bisherigen Verhaltensweise nahtlos entspricht.
Der Mann ist ein Fall für den Psychiater, wenn er ernst meint, was
er von sich gibt. Meint er es aber nicht ernst, so ist er als
ein verschlagener, gewissenloser Agitator einzustufen, der auf
Angstpsychosen setzt, um darauf zu reiten und der auch vor
Aufwiegelung zur ‚präventiven Notwehr‘ gegen seine ‚Don Quichote’schen
Windmühlen und deren Müller‘ nicht zurückschreckt.
Ich persönlich ziehe Brot, aus Mühlen, betrieben von ehrlichen Müllern
vor, wenn man mir ein alternatives Ekelprodukt, in dem aus
‚Sicherheitsgründen‘ garantiert kein Mehl mehr verbacken wurde,
zum Spottpreis anbietet.
Mehl kann sich ja, frei nach Uebbing’scher Logik mit einer gewissen
Restwahrscheinlichkeit in Gips oder auch Sägespäne verwandeln,
oder etwa nicht?
Aber das hatten wir damals alles schon!
Waren das die Naturgesetze oder waren da ‚etliche Uebbings‘ am Werk
oder waren es gemeine Betrüger?
Beste Grüsse haereticus
Sehr geehrter Herr Uebbing,
ich halte diesen Punkt für so wichtig, dass ich ihn Punkt für Punkt durchgehen möchte.
Das ist noch zu ergänzen: Jeder Schlussfolgerungsschritt unterliegt einer Fehlerwahrscheinlichkeit (das haben Sie nicht geschrieben) und zusätzlich können wie Sie geschrieben haben Fehler hineinkommen, sobald Messwerte verarbeitet werden. Somit finden sich mögliche Fehler in (1) den Schlussfolgerungsschritten und/oder (2) den Messwerten. Was das übrigens mit „kontinuierlich“ zu tun haben soll entzieht sich meinem Verständnis.
Nein, das hat ganz andere Ursachen, nämlich die, dass man bei grossen technischen Vorhaben aufgrund der Komplexität oftmals keine analytische Analyse vornehmen kann.
Einverstanden. Dieser Sonderfall zeichnet sich dadurch aus, dass er dem Allgemeinfall weit überlegen ist.
Nein, diesen „Hintergrund“ kann man problemlos in den Voraussetzungen der analytischen Methode berücksichtigen.
Genau das Gegenteil ist der Fall, da die „Wahrscheinlichkeitslogik“ aufgrund ihrer vagen Voraussetzungen viel zu ungenaue Ergebnisse liefert, während Sie mit der analytischen Methode genaue Ergebnisse erhalten. Ich weiss übrigens nicht, warum Sie analytischen Methoden konsequent als „Aussagenlogik“ bezeichnen, da Sie ja nur das Ergebnis der analytischen Auswertung einer Prüfung unterziehen und lediglich das Ergebnis dieser Prüfung dann dem Wertebereich {true, false} entspringt.
Da die Voraussetzungen Ihrer Argumentationskette nicht erfüllt ist, lässt sich diese Schlussfolgerung in dieser Form nicht vornehmen.
Was ist das Anwendungsgebiet dieser Norm: technische Fragestellungen oder physikalische Fragestellungen ?
Freundliche Grüsse, Ralf Kannenberg
In meinem Beitrag #192 habe ich mich vertippt:
Anstatt ‚präventive Notwehr‘ muss es heissen ‚putative Notwehr‘.
Hallo haereticus,
ich kann diesen Einwand nicht nachvollziehen, insbesondere kann ich mich auch nicht erinnern, dass Herr Uebbing mich jemals diskreditiert hätte. Gerne erinnern kann ich mich indes an sehr interessante Diskussionen und Impulse über das Auskühlalter von Weissen Zwergen, über ultrakühle Weisse Zwerge sowie über Kollisionswinkel, die wir zum Teil bilateral geführt haben.
Freundliche Grüsse, Ralf Kannenberg
@ralfkannenberg
Hallo Ralf!
Vlt bin ich da ja anders vorgeprägt, aber ich sehe die Begriffe „analytisch“ und „probabilistisch“ nicht als ein Paar von begrifflichen „Gegensätzen“.
Als Paare von „Gegensätzen“ (oder besser „Alternativen“) in Bezug auf den Themenkreis erachte ich
– „analytisch“ vs. „numerisch“
– „deterministisch“ vs „stochastisch“ (meinetwegen auch „probabilistisch“)
– „induktiv“ vs „deduktiv“
– und, wenn man’s ganz hoch hängen will, „empiristisch“ vs. „rationalistisch“
Grüsse,
S.
Hallo Solkar,
ich finde es sehr gut, dass Sie das ansprechen, zumal eine Risikoabschätzung ja ebenfalls eine Analyse benötigt. Ich bin somit gerne offen für eine einheitliche Terminologie: Wie soll man den „nicht-probabilistischen Ansatz“ in den Sicherheitsanalysen benennen, bei dem Abschätzungen zur sicheren Seite hin vorgenommen werden (jetzt mal völlig unabhängig davon, ob sich jemand dabei geirrt, falsche Beobachtungsdaten verwendet, einen systematischen Fehler übersehen oder sich ganz banal verrechnet hat) ?
Die Vokabel „deterministisch“, die auch von Herrn Uebbing verwendet wird, finde ich persönlich etwas irreführend; aber wenn jeder hierunter dasselbe versteht, können wir uns gerne auf dieses Wort einigen.
Freundliche Grüsse, Ralf
Zu #193 | ralfkannenberg | 24. August 2011, 17:00
Sehr geehrter Herr Kannenberg,
herzlichen Dank, dass Sie detailliert auf
Argumentationen eingehen. – Ihre Gründe
möchte ich einstweilen stehen lassen und sie dann doch
ebenso detailliert spätestens im Laufe
der nächsten Woche beantworten –
mit freundlichem Gruß – R. Uebbing