Review Analyse Publikation Ord et.al. ab Kap. 4.3
Gehe zu Seite Zurück  1, 2, 3  Weiter
 
Neues Thema eröffnen   Neue Antwort erstellen    Alpha Centauri Foren-Übersicht -> LHC-Widerstand LHC-Widerstand
Vorheriges Thema anzeigen :: Nächstes Thema anzeigen  
Autor Nachricht
ralfkannenberg



Anmeldedatum: 22.02.2006
Beiträge: 4788

BeitragVerfasst am: 06.07.2009, 08:03    Titel: Antworten mit Zitat

Erik hat Folgendes geschrieben:
ralfkannenberg hat Folgendes geschrieben:
Hallo zusammen,

anbei ein Vorschlag zur Korrektur meiner Analyse ab Abschnitt 4.3:

[...]

Ich schlage vor, diesen Kommentar von mir wie folgt zu ändern:
Zitat:
Bei dieser Risikoabschätzung wird eine "obere Grenze" noch akzeptabler Todesopfer genannt. Es sei darauf verwiesen, dass die durchgeführten Sicherheitsanalysen zum Ergebnis haben, dass die Zahl der von LHC-artigen Schwarzen Löchern verursachten Todesopfer gleich Null ist. -



Das geht am Thema vorbei. Aus diesen Analysen folgt nur P(X|A) = 0, es interessiert aber P(X).
Um diesen Unterschied geht es in dem ganzen Paper doch.

Hallo Erik,

das ist mir auch bewusst; dennoch wollte ich darlegen, dass die Autoren der Sicherheitsanalyse das Ziel haben, eine Todeszahl von 0 Personen zu erreichen, während die Autoren von "Probing the improbable ..." eine Todeszahl von 1000 Personen als wie auch immer erklärt "akzeptabel" bezeichnen.

Ich bin der Meinung, dass man diesen Unterschied geeignet in der Beurteilung der Publikation einfliessen lassen sollte; dass ich dieser Meinung bin heisst aber nicht, dass ich das an der besten Stelle angesprochen habe. Vielleicht hast Du hier einen Vorschlag, wie man das formulieren und an welcher Stelle man das am besten einfliessen lassen könnte.



Erik hat Folgendes geschrieben:
Zitat:
Überdies verwundert mich die Zahl 1000, denn wenn die Befürchtungen eintreten sollten, dann würden alle Menschen sterben.



Sie gehen von eher "ängstlichen" (also nicht risikofreudigen)
Menschen aus und rechen mit erwarteten Todeszahlen. Die Befürchtungen treten ja nur mit
einer gewissen Wahrscheinlichkeit ein. Für risikoneutrales Individuen wären 1000 sichere
Opfer genauso schlimm, wie ein Weltuntergang mit Wahrscheinlichkeit von $ 1,5\cdot 10^{-7} $.
(bei 6,5 Mrd. Menschen)

Na ja, meinetwegen; es ist mir persönlich zu zynisch, einen "Kuhhandel" mit Todesopfern zu tätigen und dies in das Deckmäntelchen der Wahrscheinlichkeitsrechnung einzupacken; das mögen bitte andere für mich tun und ich denke, die Beurteilung der "Probing the improbable ..." hängt nicht von dieser Zahl 1000 ab.


Dass wir uns nicht missverstehen: Ich habe Deine Erläuterungen als Erklärung zu diesem "Kuhhandel" verstanden, keineswegs als Zustimmung, einen solchen "Kuhhandel" zu tätigen.


Freundliche Grüsse, Ralf
Nach oben
ralfkannenberg is offline Benutzer-Profile anzeigen Private Nachricht senden
ralfkannenberg



Anmeldedatum: 22.02.2006
Beiträge: 4788

BeitragVerfasst am: 06.07.2009, 08:26    Titel: Antworten mit Zitat

Erik hat Folgendes geschrieben:
ralfkannenberg hat Folgendes geschrieben:
Eigentlich nicht, denn wenn es im Prinzip genauso geht, hätte man ein Produkt dreier Zahlen vom Wert 10^(-4), was 10^(-12) ergibt.

Erstens, daß es genauso geht, heißt doch nicht, daß dasselbe dabei rauskommt. P(M|T) und P(T) ließen sich nur mit denselben Methoden ermitteln, wie P(C).

Hallo Erik,

das war ja auch nur beispielhaft. Ähnlich beispielhaft wie die Zahlen 1:1000 oder 1:10000 seitens Ord et.al.; es ging mir nur darum, zu erwähnen, dass bei einem solchen Produkt eine kleinere Zahl herauskommt, nicht darum, wieviel kleiner diese Zahl ist.

Erik hat Folgendes geschrieben:
Zweitens, 1:10000 war nicht die Wahrscheinlichkeit für P(notC), sondern für das gesamte P(notA) (genauer die untere Grenze).

Selbstverständlich, sorry wenn ich das nicht deutlicher geschrieben habe.

Erik hat Folgendes geschrieben:
Drittens verwechselst du gerade die Komplementärereignisse. Das Produkt P(MCT) ist ja die
Wahrscheinlichkeit, daß das Argument richtig ist.

Also Du meinst vermutlich P(TMC) und ja, natürlich, das ist ja definitionsgemäss P(A). - Ich sehe also nicht, wo ich irgendwelche Komplementärereignisse verwechsele.

Ich bin ja auch gar nicht so weit ins Detail gegangen, da die Autoren zwar den ersten Summanden von (1) genauer aufspalten, dies dann aber nicht in den zweiten Summanden einsetzen ; dann lassen sie den ersten Summanden ohne T,M,C zu verwenden sehr viel kleiner als den zweiten werden und argumentieren mit dem zweiten Summanden. Mit dieser Vorgehensweise geht aber die Idee des Aufspaltens in T,M,C ja wieder völlig verloren.


Erik hat Folgendes geschrieben:
Vorausgesetzt, das Thema ist LHC-Sicherheit und nicht eine Studie über die Zuverlässigkeit von Risikoabschätzungen allgemein.

Hier habe ich den Zusammenhang verloren, was Du mir damit sagen möchtest.


Erik hat Folgendes geschrieben:
Zitat:
Zitat:
Zitat:

Sie ist eigentlich nichts anderes als ein "erster Ansatz". Da aber diese Publikation gerade über diese Thematik schreibt, hätte ich erwartet, dass dieser "erste Ansatz" geeignet verbessert wird.


Was genau hast du eigentlich erwartet? Daß sie die Studien über Irrtumswahrscheinlichkeiten gleich selber durchführen und so die Abschätung von P(notA) verbessern?

Das hätte ich sehr begrüsst.



Also notwendig finde ich das nicht. Auch in der Wissenschaft gibt es ja Arbeitsteilung. Man verlangt ja auch von theoretischen Physikern nicht, daß sie die Experimente selbst durchführen.

Ein gutes Wort - Arbeitsteilung. Irgendwo aber sehe ich den Anteil von Ord et.al. nicht ....


Erik hat Folgendes geschrieben:
Nachdem du das paper gelesen hast, wären Aussagen über die Methode doch kein Vorurteil mehr.

Sorry, das ist ein Missverständnis - ich hatte ja das Paper in 3 Teile aufgespalten (1. bis und mit Kapitel 3, 2. Abschnitt 4 bis und mit 4.2 und 3. ab Abschnitt 4.3) und jeden Teil sofort kommentiert. Insbesondere wollte ich also auch den 3.Teil, also ab Abschnitt 4.3, ebenfalls vorurteilsfrei lesen.

Der Grund für diese Aufspaltung war auch der, andere Leute schon zu einem frühen Zeitpunkt mit einzubeziehen.

Im Übrigen hatte ich zunächst eine andere Aufteilung vorgenommen, habe dann aber bemerkt, dass es Sinn macht, Kapitel 4.3 nicht schon in Teil 2 anzusprechen; zu diesem Zeitpunkt war ich noch davon ausgegangen, dass ich das ganze ohnehin in 4 Teile aufspalten würde.


Freundliche Grüsse, Ralf
Nach oben
ralfkannenberg is offline Benutzer-Profile anzeigen Private Nachricht senden
Erik



Anmeldedatum: 28.03.2006
Beiträge: 565

BeitragVerfasst am: 06.07.2009, 10:45    Titel: Antworten mit Zitat

ralfkannenberg hat Folgendes geschrieben:
Erik hat Folgendes geschrieben:

Das geht am Thema vorbei. Aus diesen Analysen folgt nur P(X|A) = 0, es interessiert aber P(X).
Um diesen Unterschied geht es in dem ganzen Paper doch.

Hallo Erik,

das ist mir auch bewusst; dennoch wollte ich darlegen, dass die Autoren der Sicherheitsanalyse das Ziel haben, eine Todeszahl von 0 Personen zu erreichen, während die Autoren von "Probing the improbable ..." eine Todeszahl von 1000 Personen als wie auch immer erklärt "akzeptabel" bezeichnen.


Ich halte diese Beschreibung für fragwürdig. Die Sicherheitsanalysen wollen keine "Todeszahl
von 0 erreichen", sondern rauskriegen, wie groß die erwarteten Todeszahlen (bzw. das Risiko)
tatsächlich sind. (Du stellst es so dar, als wäre eine größere Zahl ein Anzeichen, daß man sich nicht
genug angestrengt hat.) Genau dasselbe (also erwartete Todeszahlen rauskriegen) wollen auch
Ord et al. Und sie bezeichnen 1000 keineswegs als akzeptabel, sondern ziehen lediglich exemplarisch
die Konsequenz für p aus dieser Zahl.


Zitat:

Ich bin der Meinung, dass man diesen Unterschied geeignet in der Beurteilung der Publikation einfliessen lassen sollte; dass ich dieser Meinung bin heisst aber nicht, dass ich das an der besten Stelle angesprochen habe. Vielleicht hast Du hier einen Vorschlag, wie man das formulieren und an welcher Stelle man das am besten einfliessen lassen könnte.


Da mußt du mir erst noch begreifich machen, welchen Unterschied du da genau formulieren möchtest,
der nicht die Haupt-Prämissen des Papers ignoriert.

Zitat:

Erik hat Folgendes geschrieben:
Zitat:
Überdies verwundert mich die Zahl 1000, denn wenn die Befürchtungen eintreten sollten, dann würden alle Menschen sterben.



Sie gehen von eher "ängstlichen" (also nicht risikofreudigen)
Menschen aus und rechen mit erwarteten Todeszahlen. Die Befürchtungen treten ja nur mit
einer gewissen Wahrscheinlichkeit ein. Für risikoneutrales Individuen wären 1000 sichere
Opfer genauso schlimm, wie ein Weltuntergang mit Wahrscheinlichkeit von $ 1,5\cdot 10^{-7} $.
(bei 6,5 Mrd. Menschen)

Na ja, meinetwegen; es ist mir persönlich zu zynisch, einen "Kuhhandel" mit Todesopfern zu tätigen und dies in das Deckmäntelchen der Wahrscheinlichkeitsrechnung einzupacken;


Tja, da kannst du dich sträuben wie du willst, aber aus jeder Wahrscheinlichkeit für
einen Weltuntergang folgt unerbittlich eine Zahl von erwarteten Todesopfern.
Wenn man sich entscheidet welches Risiko akzeptabel ist, sagt man damit auch aus, welches
Todeszahlen man in Kauf nehmen möchte. Das ist weder "zynisch" noch "Kuhhandel" noch
"Deckmäntelchen". Das ist einfach so. Bloße Statistik.

Zitat:

das mögen bitte andere für mich tun und ich denke, die Beurteilung der "Probing the improbable ..." hängt nicht von dieser Zahl 1000 ab.


Das wohl nicht. Das eine ist eben die Berechnung des Risikos. Das geht für beliebige l.
Das andere ist die Frage, ob dieses Risiko akzeptabel ist. Das geht nicht ohne Festlegung
auf ein l.

Zitat:

Dass wir uns nicht missverstehen: Ich habe Deine Erläuterungen als Erklärung zu diesem "Kuhhandel" verstanden, keineswegs als Zustimmung, einen solchen "Kuhhandel" zu tätigen.


Man kann nicht über ein akzeptables Risiko reden, ohne über akzeptable erwartete Opfer.
Sind wir uns da einig? Insofern sehe ich keine Alternative zu diesem "Kuhhandel".
Nach oben
Erik is offline Benutzer-Profile anzeigen Private Nachricht senden
Erik



Anmeldedatum: 28.03.2006
Beiträge: 565

BeitragVerfasst am: 06.07.2009, 10:58    Titel: Antworten mit Zitat

ralfkannenberg hat Folgendes geschrieben:
Erik hat Folgendes geschrieben:
ralfkannenberg hat Folgendes geschrieben:
Eigentlich nicht, denn wenn es im Prinzip genauso geht, hätte man ein Produkt dreier Zahlen vom Wert 10^(-4), was 10^(-12) ergibt.

Erstens, daß es genauso geht, heißt doch nicht, daß dasselbe dabei rauskommt. P(M|T) und P(T) ließen sich nur mit denselben Methoden ermitteln, wie P(C).

Hallo Erik,

das war ja auch nur beispielhaft. Ähnlich beispielhaft wie die Zahlen 1:1000 oder 1:10000 seitens Ord et.al.;


Deine 1:10000 waren frei erfunden? Die Zahl von Ord et al. nicht.


Zitat:

es ging mir nur darum, zu erwähnen, dass bei einem solchen Produkt eine kleinere Zahl herauskommt, nicht darum, wieviel kleiner diese Zahl ist.


Es ist schon wichtig, ob sie ein paar Größenordnungen kleiner wird.

Zitat:

Erik hat Folgendes geschrieben:
Zweitens, 1:10000 war nicht die Wahrscheinlichkeit für P(notC), sondern für das gesamte P(notA) (genauer die untere Grenze).

Selbstverständlich, sorry wenn ich das nicht deutlicher geschrieben habe.


Dann ergibt das Produkt (1/10000)^3 aber überhaupt keinen Sinn.


Zitat:

Erik hat Folgendes geschrieben:
Drittens verwechselst du gerade die Komplementärereignisse. Das Produkt P(MCT) ist ja die
Wahrscheinlichkeit, daß das Argument richtig ist.

Also Du meinst vermutlich P(TMC)


Was dasselbe ist. Lies: P("T und M und C")

Zitat:

und ja, natürlich, das ist ja definitionsgemäss P(A). - Ich sehe also nicht, wo ich irgendwelche Komplementärereignisse verwechsele.


Bei einer Wahrscheinlichkeit von P(A="Argument richtig") von 1 zu 1 Billion?




Zitat:

Ich bin ja auch gar nicht so weit ins Detail gegangen, da die Autoren zwar den ersten Summanden von (1) genauer aufspalten, dies dann aber nicht in den zweiten Summanden einsetzen ; dann lassen sie den ersten Summanden ohne T,M,C zu verwenden sehr viel kleiner als den zweiten werden und argumentieren mit dem zweiten Summanden. Mit dieser Vorgehensweise geht aber die Idee des Aufspaltens in T,M,C ja wieder völlig verloren.


Sie geht nicht verloren, sie benutzen halt nur die vorherige gröbere Abschätzung für P(notA).
Vermutlich, weil sie nicht genug Daten haben, um die einzelnen Faktoren zu quantifizieren.

Zitat:

Erik hat Folgendes geschrieben:
Vorausgesetzt, das Thema ist LHC-Sicherheit und nicht eine Studie über die Zuverlässigkeit von Risikoabschätzungen allgemein.

Hier habe ich den Zusammenhang verloren, was Du mir damit sagen möchtest.


Wenn es um die Zuverlässigkeit einer konkreten Studie geht, ist das Paper am Thema vorbei.
Wenn ich eine Aussage über eine große Anzahl von Risikostudien machen will, ist es vielleicht
relevant.


Zitat:

Erik hat Folgendes geschrieben:
Zitat:
Zitat:
Zitat:

Sie ist eigentlich nichts anderes als ein "erster Ansatz". Da aber diese Publikation gerade über diese Thematik schreibt, hätte ich erwartet, dass dieser "erste Ansatz" geeignet verbessert wird.


Was genau hast du eigentlich erwartet? Daß sie die Studien über Irrtumswahrscheinlichkeiten gleich selber durchführen und so die Abschätung von P(notA) verbessern?

Das hätte ich sehr begrüsst.



Also notwendig finde ich das nicht. Auch in der Wissenschaft gibt es ja Arbeitsteilung. Man verlangt ja auch von theoretischen Physikern nicht, daß sie die Experimente selbst durchführen.

Ein gutes Wort - Arbeitsteilung. Irgendwo aber sehe ich den Anteil von Ord et.al. nicht ....


Sowas in der Art: "Methoden zur Untersuchung der Frage: gibt es statistisch relevante
Unterschiede zwischen P(X) und P(X|A) bei Sicherheitsanalysen? Konsequenzen für
Entscheider bei hohem Einsatz".

Zitat:

Erik hat Folgendes geschrieben:
Nachdem du das paper gelesen hast, wären Aussagen über die Methode doch kein Vorurteil mehr.

Sorry, das ist ein Missverständnis - ich hatte ja das Paper in 3 Teile aufgespalten (1. bis und mit Kapitel 3, 2. Abschnitt 4 bis und mit 4.2 und 3. ab Abschnitt 4.3) und jeden Teil sofort kommentiert. Insbesondere wollte ich also auch den 3.Teil, also ab Abschnitt 4.3, ebenfalls vorurteilsfrei lesen.


Hast du doch jetzt getan, oder? Wie ist denn jetzt dein Urteil über die Methode mit Bayes?
Nach oben
Erik is offline Benutzer-Profile anzeigen Private Nachricht senden
ralfkannenberg



Anmeldedatum: 22.02.2006
Beiträge: 4788

BeitragVerfasst am: 06.07.2009, 11:14    Titel: Antworten mit Zitat

Erik hat Folgendes geschrieben:
Ich halte diese Beschreibung für fragwürdig. Die Sicherheitsanalysen wollen keine "Todeszahl von 0 erreichen", sondern rauskriegen, wie groß die erwarteten Todeszahlen (bzw. das Risiko) tatsächlich sind. (Du stellst es so dar, als wäre eine größere Zahl ein Anzeichen, daß man sich nicht genug angestrengt hat.)

Hallo Erik,

das hat eigentlich mit "Anstrengen" nicht primär etwas zu tun, aber es ist mir neu, dass die Sicherheitsanalyse von Giddings/Mangano oder diejenige von Koch/Bleicher/Stöcker erwartete Todeszahlen echt grösser als 0 aufweisen.

Man mag hier - durchaus berechtigterweise - einwänden, dass diese beiden Sicherheitsanalysen den Aspekt der bedingten Wahrscheinlichkeit nicht einbringen, sondern sich auf den fachlichen Teil beschränken und an dieser Stelle also ein von 0 verschiedener Wert hineinkommt.

Aber Ord/Hillerbrand/Sandberg liefern das auch nicht nach - mit ihrem TMC-Modell schätzen sie einen sowieso schon genügend gut abgeschätzten Term (den ersten Summanden ihrer Gleichung (1) ) noch etwas besser ab und unterlassen es, das TMC-Modell auch in den zweiten Summanden einfliessen zu lassen, so dass ein "pauschales Rauschen" verbleibt, welches völlig unabhängig vom Risiko (LHC, Zugskollision, Sonnenerlöschen, Wasserumwandlung etc.) ist.

Erik hat Folgendes geschrieben:
Da mußt du mir erst noch begreifich machen, welchen Unterschied du da genau formulieren möchtest, der nicht die Haupt-Prämissen des Papers ignoriert.

Ok, ich muss noch mal schauen, ob in den Prämissen des Papers sinngemäss irgendwo die Anmerkung "ich bin belanglos" steht.

Erik hat Folgendes geschrieben:
Sind wir uns da einig? Insofern sehe ich keine Alternative zu diesem "Kuhhandel".

Nicht ganz, weil weder Giddings/Mangano noch Koch/Bleicher/Stöcker diesen Kuhhandel eingehen.

Sagen wir es einmal so: Wenn man diese bedingten Wahrscheinlichkeiten ins Spiel bringt, dann kommt - zumindest in unserem derzeitigen Kenntnisstand - auch so ein "Kuhhandel" ins Spiel. Jedoch nutzt ein Resultat, welches genau gleich für absurde Szenarien herauskommt, reichlich wenig und ist irreführend, wenn man nicht zufügt, dass es für die absurden Szenarien gleich herauskommt.

Etwas drastisch formuliert: Wenn ich eine Publikation verfasse, deren Ergebnis aussagt, dass es von Zürich nach Hamburg nicht weiter als von Zürich zum Mond ist, so ist das ja richtig und ich kann auch den "praktischen Nutzen" daraus ziehen, dass es keinen Überlicht-Antrieb braucht, um von Zürich nach Hamburg zu gelangen; dennoch wird für die allermeisten Anwendungen eine solche Abschätzung irreführend sein.


Aber der langen Rede kurzer Sinn: Du möchtest mir vorschlagen, dass ich die genannten Todeszahlen von 1000 mit Vorteil unkommentiert lasse ? Ich bin mittlerweile durchaus einverstanden, diesen Vorschlag zu übernehmen.


Freundliche Grüsse, Ralf
Nach oben
ralfkannenberg is offline Benutzer-Profile anzeigen Private Nachricht senden
ralfkannenberg



Anmeldedatum: 22.02.2006
Beiträge: 4788

BeitragVerfasst am: 06.07.2009, 11:42    Titel: Antworten mit Zitat

Erik hat Folgendes geschrieben:
Zitat:
das war ja auch nur beispielhaft. Ähnlich beispielhaft wie die Zahlen 1:1000 oder 1:10000 seitens Ord et.al.;

Deine 1:10000 waren frei erfunden? Die Zahl von Ord et al. nicht.

Hallo Erik,

natürlich, schliesslich war das nur ein Beispiel, um etwas zu verdeutlichen und findet keinen Eingang in die von mir getätigte Beurteilung der "Probing the Improbable...": Das Produkt dreier sehr kleiner Zahlen ist deutlich kleiner als nur eine von ihnen. Vielleicht würde eine konsequente Analyse der Idee von Ord et.al. ergeben, dass zwei dieser Faktoren nahe bei 1 liegen; dann wäre das Produkt vergleichbar gross wie die kleinste dieser drei Zahlen.

Aber eben - diese Analyse von Ord et.al. ist nicht gemacht worden; aber eben auch: Ich habe diesen Punkt bei meiner Beurteilung nicht einfliessen lassen, weil genauere Angaben fehlen. Er ist also nur ein Teil dieser Diskussion.


Erik hat Folgendes geschrieben:
Zitat:

es ging mir nur darum, zu erwähnen, dass bei einem solchen Produkt eine kleinere Zahl herauskommt, nicht darum, wieviel kleiner diese Zahl ist.

Es ist schon wichtig, ob sie ein paar Größenordnungen kleiner wird.

Ähm nein, momentan nicht. Ord et.al. haben das nicht näher ausgearbeitet und vielleicht gibt es ja Szenarien, in denen zwei der Faktoren grösser sind, dann hat das Produkt in etwa den Wert der kleinsten Zahl. Dann sind wir so weit wie Ord et.al. auch.


Erik hat Folgendes geschrieben:
Dann ergibt das Produkt (1/10000)^3 aber überhaupt keinen Sinn.

Doch, als Beispiel, dass das Produkt dreier sehr kleiner Zahlen eben noch kleiner wird. Kein Wort davon bei der Analyse von Ord et.al.; da wird einfach dem geneigten Leser ein Produkt aus 3 Faktoren zum Frasse vorgeworfen, ohne ein Wort, was damit eigentlich zu machen ist.

Sie müssten ihre TMC-Idee in P(X|notA)*P(notA) einsetzen und das tun sie nicht.

Erik hat Folgendes geschrieben:
Was dasselbe ist. Lies: P("T und M und C")

Ja natürlich, danke - ich hatte Deinen Beitrag falsch gelesen.


Erik hat Folgendes geschrieben:
Zitat:
und ja, natürlich, das ist ja definitionsgemäss P(A). - Ich sehe also nicht, wo ich irgendwelche Komplementärereignisse verwechsele.

Bei einer Wahrscheinlichkeit von P(A="Argument richtig") von 1 zu 1 Billion?

Ja ja, das wäre die Konsequenz, aber wo habe ich das getan ? Ich meine, wo konkret habe ich Deiner Meinung nach Komplementäreignisse verwechselt ?


Erik hat Folgendes geschrieben:
Zitat:

Ich bin ja auch gar nicht so weit ins Detail gegangen, da die Autoren zwar den ersten Summanden von (1) genauer aufspalten, dies dann aber nicht in den zweiten Summanden einsetzen ; dann lassen sie den ersten Summanden ohne T,M,C zu verwenden sehr viel kleiner als den zweiten werden und argumentieren mit dem zweiten Summanden. Mit dieser Vorgehensweise geht aber die Idee des Aufspaltens in T,M,C ja wieder völlig verloren.


Sie geht nicht verloren, sie benutzen halt nur die vorherige gröbere Abschätzung für P(notA).
Vermutlich, weil sie nicht genug Daten haben, um die einzelnen Faktoren zu quantifizieren.

Wenn sie nicht verloren gehen, müssen sie ja irgendwo verwendet werden; ich sehe aber nicht, wo. Sie werden lediglich eingeführt und das war es dann.

Die Idee des Papers wäre es doch, diese TMC-Idee in den zweiten Summanden, also in P(X|notA)*P(notA) einzusetzen und gerade das unterbleibt ! Statt dessen setzen sie es in einen Term ein, der sowieso << P(X|notA)*P(notA) ist.


Erik hat Folgendes geschrieben:
Zitat:
Hier habe ich den Zusammenhang verloren, was Du mir damit sagen möchtest.

Wenn es um die Zuverlässigkeit einer konkreten Studie geht, ist das Paper am Thema vorbei.
Wenn ich eine Aussage über eine große Anzahl von Risikostudien machen will, ist es vielleicht relevant.

Ach so, danke für Deine Erläuterung. Hiermit bin ich einverstanden.

Erik hat Folgendes geschrieben:
Sowas in der Art: "Methoden zur Untersuchung der Frage: gibt es statistisch relevante Unterschiede zwischen P(X) und P(X|A) bei Sicherheitsanalysen? Konsequenzen für Entscheider bei hohem Einsatz".

ok, meinetwegen.


Erik hat Folgendes geschrieben:
Wie ist denn jetzt dein Urteil über die Methode mit Bayes?

Meinst Du mein Urteil, diese Fragestellung mit dem Satz von Bayes zu analysieren ? Ich würde das sehr interessant finden, aber es wird von Ord et.al. nicht näher ausgeführt.


Freundliche Grüsse, Ralf
Nach oben
ralfkannenberg is offline Benutzer-Profile anzeigen Private Nachricht senden
Erik



Anmeldedatum: 28.03.2006
Beiträge: 565

BeitragVerfasst am: 06.07.2009, 13:52    Titel: Antworten mit Zitat

ralfkannenberg hat Folgendes geschrieben:
Erik hat Folgendes geschrieben:
Ich halte diese Beschreibung für fragwürdig. Die Sicherheitsanalysen wollen keine "Todeszahl von 0 erreichen", sondern rauskriegen, wie groß die erwarteten Todeszahlen (bzw. das Risiko) tatsächlich sind. (Du stellst es so dar, als wäre eine größere Zahl ein Anzeichen, daß man sich nicht genug angestrengt hat.)

Hallo Erik,

das hat eigentlich mit "Anstrengen" nicht primär etwas zu tun, aber es ist mir neu, dass die Sicherheitsanalyse von Giddings/Mangano oder diejenige von Koch/Bleicher/Stöcker erwartete Todeszahlen echt grösser als 0 aufweisen.


Behauptet ja auch keiner.

Zitat:

Man mag hier - durchaus berechtigterweise - einwänden, dass diese beiden Sicherheitsanalysen den Aspekt der bedingten Wahrscheinlichkeit nicht einbringen, sondern sich auf den fachlichen Teil beschränken und an dieser Stelle also ein von 0 verschiedener Wert hineinkommt.


Nein, gerade darum geht es: der Einwand ist unberechtigt. Daß die Wahrscheinlichkeit „nur“ eine bedingte ist, juckt keinen außer Ord et al.. Ist sie sowieso immer.

Zitat:

Aber Ord/Hillerbrand/Sandberg liefern das auch nicht nach - mit ihrem TMC-Modell schätzen sie einen sowieso schon genügend gut abgeschätzten Term (den ersten Summanden ihrer Gleichung (1) ) noch etwas besser ab und unterlassen es, das TMC-Modell auch in den zweiten Summanden einfliessen zu lassen, so dass ein "pauschales Rauschen" verbleibt, welches völlig unabhängig vom Risiko (LHC, Zugskollision, Sonnenerlöschen, Wasserumwandlung etc.) ist.


Das Problem ist nicht, daß sie die Abschätzung nicht liefern, sondern daß sie nicht relevant ist (zumindest für den LHC). Ansonsten liefert das ganze Gedöns mit TMC nur die Methode. Für eine erste Abschätzung reicht ja das P(A) aus den „retraction rates“.

Zitat:

Erik hat Folgendes geschrieben:
Da mußt du mir erst noch begreifich machen, welchen Unterschied du da genau formulieren möchtest, der nicht die Haupt-Prämissen des Papers ignoriert.

Ok, ich muss noch mal schauen, ob in den Prämissen des Papers sinngemäss irgendwo die Anmerkung "ich bin belanglos" steht.


Hä? Das steht da nirgends. Deswegen solltest du sie ja auch in deiner Kritik nicht ignorieren.

Zitat:

Erik hat Folgendes geschrieben:
Sind wir uns da einig? Insofern sehe ich keine Alternative zu diesem "Kuhhandel".

Nicht ganz, weil weder Giddings/Mangano noch Koch/Bleicher/Stöcker diesen Kuhhandel eingehen.


Wenn sie meinen P(X)=0, müssen sie das auch nicht. Ord et al. sind aber wohl nicht der Meinung. Bist du es?

Zitat:

Sagen wir es einmal so: Wenn man diese bedingten Wahrscheinlichkeiten ins Spiel bringt, dann kommt - zumindest in unserem derzeitigen Kenntnisstand - auch so ein "Kuhhandel" ins Spiel. Jedoch nutzt ein Resultat, welches genau gleich für absurde Szenarien herauskommt, reichlich wenig und ist irreführend, wenn man nicht zufügt, dass es für die absurden Szenarien gleich herauskommt.


Auf diesen Punkt gehen sie explizit ein: Abschnitt 5 Absatz 2. Es mag aber stimmen, daß das Argument dort inkonsequent ist. Denn dort verlassen sie sich ja wieder darauf, wie plausibel der entsprechende Mechanismus ist. Das kann man von vornherein machen und letztendlich hat man auch nichts besseres.

Zitat:

Etwas drastisch formuliert: Wenn ich eine Publikation verfasse, deren Ergebnis aussagt, dass es von Zürich nach Hamburg nicht weiter als von Zürich zum Mond ist, so ist das ja richtig und ich kann auch den "praktischen Nutzen" daraus ziehen, dass es keinen Überlicht-Antrieb braucht, um von Zürich nach Hamburg zu gelangen; dennoch wird für die allermeisten Anwendungen eine solche Abschätzung irreführend sein.


Aber der langen Rede kurzer Sinn: Du möchtest mir vorschlagen, dass ich die genannten Todeszahlen von 1000 mit Vorteil unkommentiert lasse ? Ich bin mittlerweile durchaus einverstanden, diesen Vorschlag zu übernehmen.


Ich wurde nur nicht versuchen, einem moralischen Vorwurf draus zu drehen, weil das völlig unsachlich wäre.
Nach oben
Erik is offline Benutzer-Profile anzeigen Private Nachricht senden
Erik



Anmeldedatum: 28.03.2006
Beiträge: 565

BeitragVerfasst am: 06.07.2009, 14:08    Titel: Antworten mit Zitat

ralfkannenberg hat Folgendes geschrieben:
Erik hat Folgendes geschrieben:
Zitat:
das war ja auch nur beispielhaft. Ähnlich beispielhaft wie die Zahlen 1:1000 oder 1:10000 seitens Ord et.al.;

Deine 1:10000 waren frei erfunden? Die Zahl von Ord et al. nicht.

Hallo Erik,

natürlich, schliesslich war das nur ein Beispiel, um etwas zu verdeutlichen und findet keinen Eingang in die von mir getätigte Beurteilung der "Probing the Improbable...": Das Produkt dreier sehr kleiner Zahlen ist deutlich kleiner als nur eine von ihnen.


Und warum soll das interessant sein, wenn so ein Produkt in dem Argument gar nicht vorkommt? Wir wissen bereits, wenn wir dem paper folgen, daß P(notCMT) ~ 1:10000 ist. In welche Faktoren du es aufspaltest, ist egal.

Zitat:

Erik hat Folgendes geschrieben:
Zitat:

es ging mir nur darum, zu erwähnen, dass bei einem solchen Produkt eine kleinere Zahl herauskommt, nicht darum, wieviel kleiner diese Zahl ist.

Es ist schon wichtig, ob sie ein paar Größenordnungen kleiner wird.

Ähm nein, momentan nicht.


Dann eben später.

Zitat:

Ord et.al. haben das nicht näher ausgearbeitet und vielleicht gibt es ja Szenarien, in denen zwei der Faktoren grösser sind, dann hat das Produkt in etwa den Wert der kleinsten Zahl. Dann sind wir so weit wie Ord et.al. auch.


Was für Szenarien? P(MCT)/P(A) und die einzelnen Faktoren hängen nicht von irgendwelchen Szenarien ab.

Ich weiß immer noch nicht, was du eigentlich willst: P(A) haben sie abgeschätzt, und sind sich bewußt, daß das noch Unsicherheiten birgt. Dann überlegen sie sich, wie man das in unabhängig voneinander zu ermittelnde Faktoren aufdröseln kann, um die Zuverlässigkeit dieser Abschätzung zu prüfen. Das führen sie aber nicht mehr zuende. Na und? Vielleicht wollen sie ja noch ein paper schreiben.

Zitat:

Erik hat Folgendes geschrieben:
Dann ergibt das Produkt (1/10000)^3 aber überhaupt keinen Sinn.

Doch, als Beispiel, dass das Produkt dreier sehr kleiner Zahlen eben noch kleiner wird.


Das Produkt ergibt schon 1/10000. Warum willst du da jetzt noch andere kleine Zahlen ranmultiplizieren?

Zitat:

Kein Wort davon bei der Analyse von Ord et.al.; da wird einfach dem geneigten Leser ein Produkt aus 3 Faktoren zum Frasse vorgeworfen, ohne ein Wort, was damit eigentlich zu machen ist.


In dem Argument kommen keine drei Faktoren von der Größenordnung 1:10000 vor. Die einzige quantitative Abschätzung gibt es für das gesamte P(notA) (retraction rates) und für P(notC) über das Zahlendreherargument. Und das liefert was in der Größenordnung von Prozent, ist also zumindest konsitent mit P(notA) = 1/10000.

Und was du mit den Faktoren machen sollst? Erst mal ermitteln und dann einsetzen.

Zitat:

Erik hat Folgendes geschrieben:
Zitat:
und ja, natürlich, das ist ja definitionsgemäss P(A). - Ich sehe also nicht, wo ich irgendwelche Komplementärereignisse verwechsele.

Bei einer Wahrscheinlichkeit von P(A="Argument richtig") von 1 zu 1 Billion?

Ja ja, das wäre die Konsequenz, aber wo habe ich das getan ? Ich meine, wo konkret habe ich Deiner Meinung nach Komplementäreignisse verwechselt ?


Wir sprachen davon, wie man die Faktoren in P(C)P(M|T)P(T)=P(A) bestimmt. Du meintest, es müsse irgendwas bei 1:1Billion rauskommen, wenn man P(M|T) und P(T) genauso bestimmt, wie P(C). Du sprachst aber wohl von P(notA). Wenn nicht, weiß ich auch nicht, was du gemeint haben könntest. Ehrlich gesagt finde ich die Diskussion langsam etwas konfus.

Zitat:

Erik hat Folgendes geschrieben:
Zitat:

Ich bin ja auch gar nicht so weit ins Detail gegangen, da die Autoren zwar den ersten Summanden von (1) genauer aufspalten, dies dann aber nicht in den zweiten Summanden einsetzen ; dann lassen sie den ersten Summanden ohne T,M,C zu verwenden sehr viel kleiner als den zweiten werden und argumentieren mit dem zweiten Summanden. Mit dieser Vorgehensweise geht aber die Idee des Aufspaltens in T,M,C ja wieder völlig verloren.


Sie geht nicht verloren, sie benutzen halt nur die vorherige gröbere Abschätzung für P(notA).
Vermutlich, weil sie nicht genug Daten haben, um die einzelnen Faktoren zu quantifizieren.

Wenn sie nicht verloren gehen, müssen sie ja irgendwo verwendet werden; ich sehe aber nicht, wo. Sie werden lediglich eingeführt und das war es dann.


Ja, reicht doch erstmal. Deswegen sind sie ja nicht weg. Wer Lust hat, kann jetzt damit rumrechnen.

Zitat:

Die Idee des Papers wäre es doch, diese TMC-Idee in den zweiten Summanden, also in P(X|notA)*P(notA) einzusetzen und gerade das unterbleibt ! Statt dessen setzen sie es in einen Term ein, der sowieso << P(X|notA)*P(notA) ist.


Nein, das ist nicht „die idee des papers“. Das ist nur eine Methode um P(notA) genauer rauszukriegen, als über die retraction rates.

Zitat:

Erik hat Folgendes geschrieben:
Wie ist denn jetzt dein Urteil über die Methode mit Bayes?

Meinst Du mein Urteil, diese Fragestellung mit dem Satz von Bayes zu analysieren ?


Ja, genau.

Zitat:

Ich würde das sehr interessant finden, aber es wird von Ord et.al. nicht näher ausgeführt.


Doch, Gl. (1) ist doch der Satz von Bayes und den benutzen sie die ganze Zeit.
Nach oben
Erik is offline Benutzer-Profile anzeigen Private Nachricht senden
ralfkannenberg



Anmeldedatum: 22.02.2006
Beiträge: 4788

BeitragVerfasst am: 06.07.2009, 14:42    Titel: Antworten mit Zitat

Hallo Erik,

Erik hat Folgendes geschrieben:
ralfkannenberg hat Folgendes geschrieben:
aber es ist mir neu, dass die Sicherheitsanalyse von Giddings/Mangano oder diejenige von Koch/Bleicher/Stöcker erwartete Todeszahlen echt grösser als 0 aufweisen.


Behauptet ja auch keiner.

einverstanden.


Erik hat Folgendes geschrieben:
Zitat:

Man mag hier - durchaus berechtigterweise - einwänden, dass diese beiden Sicherheitsanalysen den Aspekt der bedingten Wahrscheinlichkeit nicht einbringen, sondern sich auf den fachlichen Teil beschränken und an dieser Stelle also ein von 0 verschiedener Wert hineinkommt.


Nein, gerade darum geht es: der Einwand ist unberechtigt. Daß die Wahrscheinlichkeit „nur“ eine bedingte ist, juckt keinen außer Ord et al.. Ist sie sowieso immer.

Einverstanden.

Erik hat Folgendes geschrieben:
Das Problem ist nicht, daß sie die Abschätzung nicht liefern, sondern daß sie nicht relevant ist (zumindest für den LHC). Ansonsten liefert das ganze Gedöns mit TMC nur die Methode. Für eine erste Abschätzung reicht ja das P(A) aus den „retraction rates“.

Mag langweilig tönen, aber dennoch: Einverstanden.


Erik hat Folgendes geschrieben:
Hä? Das steht da nirgends. Deswegen solltest du sie ja auch in deiner Kritik nicht ignorieren.

Gut, ich streiche den Punkt mit den 1000 ersatzlos.


Erik hat Folgendes geschrieben:
Wenn sie meinen P(X)=0, müssen sie das auch nicht. Ord et al. sind aber wohl nicht der Meinung. Bist du es?

Man darf nicht vergessen, dass weder Giddings/Mangano noch Koch/Bleicher/Stöcker ein "Risiko" berechnen. Wenn ich 1+1 berechne und für natürliche Zahlen dabei 2 herausbekomme, so gibt es dennoch ein Rest-Risiko echt grösser 0, dass ich mich irgendwo geirrt habe. Natürlich wird es bei 1+1=2 geringer sein als bei einer umfangreichen Sicherheitsstudie, aber dennoch ist es echt grösser als 0.

Dennoch werde mich ich an der Kasse im Supermarkt kaum für dieses Rest-Risiko ineressieren.

Ich denke, dass der Ansatz mit den bedingten Wahrscheinlichkeiten vorsichtig formuliert "heikel" ist, weil man die "Unsicherheiten" nicht brauchbar abschätzen kann. Auch Ord et.al. liefern keinen Beitrag, diese brauchbar abzuschätzen; sie erhalten einfach eine pauschale Abschätzung, die aber zur Risikoeruierung viel zu grob und entsprechend nichtssagend ist.


Erik hat Folgendes geschrieben:
Ich wurde nur nicht versuchen, einem moralischen Vorwurf draus zu drehen, weil das völlig unsachlich wäre.

Einverstanden.


Freundliche Grüsse, Ralf
Nach oben
ralfkannenberg is offline Benutzer-Profile anzeigen Private Nachricht senden
ralfkannenberg



Anmeldedatum: 22.02.2006
Beiträge: 4788

BeitragVerfasst am: 06.07.2009, 15:00    Titel: Antworten mit Zitat

Erik hat Folgendes geschrieben:
Und warum soll das interessant sein, wenn so ein Produkt in dem Argument gar nicht vorkommt? Wir wissen bereits, wenn wir dem paper folgen, daß P(notCMT) ~ 1:10000 ist. In welche Faktoren du es aufspaltest, ist egal.

Hallo Erik,

na doch: Die Abschätzung ~ 1:10000 ist ja nicht sehr gut, sondern liefert nur dieses pauschale Ergebnis für beliebige solcher Risiken wie LHC, Zugskollisionen, Sonnenerlöschen, Wasserumwandlung etc. Ich hatte hier die Hoffnung, mittels der Aufspaltung in T's, M's und C's eine bessere und insbesondere aussagenreichere Abschätzung zu erhalten.

Erik hat Folgendes geschrieben:
Ich weiß immer noch nicht, was du eigentlich willst: P(A) haben sie abgeschätzt, und sind sich bewußt, daß das noch Unsicherheiten birgt. Dann überlegen sie sich, wie man das in unabhängig voneinander zu ermittelnde Faktoren aufdröseln kann, um die Zuverlässigkeit dieser Abschätzung zu prüfen. Das führen sie aber nicht mehr zuende. Na und? Vielleicht wollen sie ja noch ein paper schreiben.

Ok, setzen wir unsere Hoffnungen auf das neue paper !

Erik hat Folgendes geschrieben:
Das Produkt ergibt schon 1/10000. Warum willst du da jetzt noch andere kleine Zahlen ranmultiplizieren?

Um eine bessere Abschätzung als diese pauschale zu erhalten.


Erik hat Folgendes geschrieben:
In dem Argument kommen keine drei Faktoren von der Größenordnung 1:10000 vor. Die einzige quantitative Abschätzung gibt es für das gesamte P(notA) (retraction rates) und für P(notC) über das Zahlendreherargument. Und das liefert was in der Größenordnung von Prozent, ist also zumindest konsitent mit P(notA) = 1/10000.

Und was du mit den Faktoren machen sollst? Erst mal ermitteln und dann einsetzen.

Was Ord et.al. natürlich nicht näher zu beschreiben brauchen ........


Erik hat Folgendes geschrieben:
Wir sprachen davon, wie man die Faktoren in P(C)P(M|T)P(T)=P(A) bestimmt. Du meintest, es müsse irgendwas bei 1:1Billion rauskommen, wenn man P(M|T) und P(T) genauso bestimmt, wie P(C). Du sprachst aber wohl von P(notA).

Ja. Der erste Summand ist ja schon ohne Aufspaltung in TMC genügend gut bestimmt und insbesondere deutlich kleiner als der viel zu schlecht abgeschätzte 2.Summand. Also müsste man den viel zu schlecht abgeschätzen 2.Summanden besser abschätzen und ich hatte die Hoffnung, dass Ord et.al. dies ebenfalls mit dem TMC-Modell bewerkstelligen würden.

Vielleicht wird da ja in einem weiteren paper noch nachgeholt.


Erik hat Folgendes geschrieben:
Ja, reicht doch erstmal. Deswegen sind sie ja nicht weg. Wer Lust hat, kann jetzt damit rumrechnen.

Irgendwie überlassen Ord et.al. etwas gar viele Überlegungen dem geneigten Leser oder der geneigten Leserin ...


Erik hat Folgendes geschrieben:
Zitat:
Die Idee des Papers wäre es doch, diese TMC-Idee in den zweiten Summanden, also in P(X|notA)*P(notA) einzusetzen und gerade das unterbleibt ! Statt dessen setzen sie es in einen Term ein, der sowieso << P(X|notA)*P(notA) ist.


Nein, das ist nicht „die idee des papers“. Das ist nur eine Methode um P(notA) genauer rauszukriegen, als über die retraction rates.

Ja, aber warum führen die Autoren das denn nicht explizit durch ? Meinst Du wirklich, dass es in einem Follow-Up paper noch eine Fortsetzung dazu gibt ? Ich meine - der Erkenntnisgewinn des derzeitigen papers ist ja nicht gerade sehr hoch.


Erik hat Folgendes geschrieben:
Doch, Gl. (1) ist doch der Satz von Bayes und den benutzen sie die ganze Zeit.

Eigentlich tun sie ihn vor allem zitieren als wirklich zu benutzen .......


Freundliche Grüsse, Ralf
Nach oben
ralfkannenberg is offline Benutzer-Profile anzeigen Private Nachricht senden
Erik



Anmeldedatum: 28.03.2006
Beiträge: 565

BeitragVerfasst am: 06.07.2009, 15:07    Titel: Antworten mit Zitat

ralfkannenberg hat Folgendes geschrieben:

Erik hat Folgendes geschrieben:
Wenn sie meinen P(X)=0, müssen sie das auch nicht. Ord et al. sind aber wohl nicht der Meinung. Bist du es?

Man darf nicht vergessen, dass weder Giddings/Mangano noch Koch/Bleicher/Stöcker ein "Risiko" berechnen. Wenn ich 1+1 berechne und für natürliche Zahlen dabei 2 herausbekomme, so gibt es dennoch ein Rest-Risiko echt grösser 0, dass ich mich irgendwo geirrt habe. Natürlich wird es bei 1+1=2 geringer sein als bei einer umfangreichen Sicherheitsstudie, aber dennoch ist es echt grösser als 0.


Ja, aber was macht man, wenn man wissen will ob man sich in dieser konkreten Rechnung vertan hat? Man rechnet
nach oder fragt seine Kollegen, ob sie freundlicherweise auch nochmal einen Blick drauf werfen können. Was man sicher
nicht machen sollte, ist, Statistiken über Zahlendreher zu konsultieren.

Zitat:

Dennoch werde mich ich an der Kasse im Supermarkt kaum für dieses Rest-Risiko ineressieren.

Ich denke, dass der Ansatz mit den bedingten Wahrscheinlichkeiten vorsichtig formuliert "heikel" ist, weil man die "Unsicherheiten" nicht brauchbar abschätzen kann.


Doch ich denke schon, daß man das kann, aber man hat nichts davon.

Zitat:

Auch Ord et.al. liefern keinen Beitrag, diese brauchbar abzuschätzen; sie erhalten einfach eine pauschale Abschätzung, die aber zur Risikoeruierung viel zu grob und entsprechend nichtssagend ist.


Vielleicht meinst du ja mit dem "pauschal" dasselbe wie ich oben. Jede Statistik ist irgendwie
pauschal. Wenn man sich einmal darauf eingelassen hat, kriegt man eben nur noch pauschale Antworten.
Deswegen ist sie nicht "nichtssagen", sie sagt eben nur etwas über eine große Anzahl von Sicherheitsanalysen aus.
Nimm mal an, sie hätten alles richtig gemacht: P(C) und P(M|T) und P(T) exakt bis auf die 10. Nachkommastelle berechnet und
als Produkt P(A)=99,9900000000 % rausbekommen. Wüßten wir dann wie sicher der LHC ist?
Nach oben
Erik is offline Benutzer-Profile anzeigen Private Nachricht senden
Erik



Anmeldedatum: 28.03.2006
Beiträge: 565

BeitragVerfasst am: 06.07.2009, 15:25    Titel: Antworten mit Zitat

ralfkannenberg hat Folgendes geschrieben:
Erik hat Folgendes geschrieben:
Und warum soll das interessant sein, wenn so ein Produkt in dem Argument gar nicht vorkommt? Wir wissen bereits, wenn wir dem paper folgen, daß P(notCMT) ~ 1:10000 ist. In welche Faktoren du es aufspaltest, ist egal.

Hallo Erik,

na doch: Die Abschätzung ~ 1:10000 ist ja nicht sehr gut, sondern liefert nur dieses pauschale Ergebnis für beliebige solcher Risiken wie LHC, Zugskollisionen, Sonnenerlöschen, Wasserumwandlung etc. Ich hatte hier die Hoffnung, mittels der Aufspaltung in T's, M's und C's eine bessere und insbesondere aussagenreichere Abschätzung zu erhalten.


Wenn du P(notA) genauer bestimmst, wird es nicht weniger pauschal.


Zitat:

Erik hat Folgendes geschrieben:
Das Produkt ergibt schon 1/10000. Warum willst du da jetzt noch andere kleine Zahlen ranmultiplizieren?

Um eine bessere Abschätzung als diese pauschale zu erhalten.


Sie ist weder besser noch weniger pauschal. Nur kleiner. Du hast sie völlig frei erfunden, im Gegensatz zu den Autoren.
Wie kommst du also auf "besser"?

Zitat:

Erik hat Folgendes geschrieben:
In dem Argument kommen keine drei Faktoren von der Größenordnung 1:10000 vor. Die einzige quantitative Abschätzung gibt es für das gesamte P(notA) (retraction rates) und für P(notC) über das Zahlendreherargument. Und das liefert was in der Größenordnung von Prozent, ist also zumindest konsitent mit P(notA) = 1/10000.

Und was du mit den Faktoren machen sollst? Erst mal ermitteln und dann einsetzen.

Was Ord et.al. natürlich nicht näher zu beschreiben brauchen ........


Also meinetwegen nicht.

Zitat:

Erik hat Folgendes geschrieben:
Wir sprachen davon, wie man die Faktoren in P(C)P(M|T)P(T)=P(A) bestimmt. Du meintest, es müsse irgendwas bei 1:1Billion rauskommen, wenn man P(M|T) und P(T) genauso bestimmt, wie P(C). Du sprachst aber wohl von P(notA).

Ja. Der erste Summand ist ja schon ohne Aufspaltung in TMC genügend gut bestimmt und insbesondere deutlich kleiner als der viel zu schlecht abgeschätzte 2.Summand. Also müsste man den viel zu schlecht abgeschätzen 2.Summanden besser abschätzen und ich hatte die Hoffnung, dass Ord et.al. dies ebenfalls mit dem TMC-Modell bewerkstelligen würden.


??? Trotzdem ist 1/1Billion wohl etwas klein für P(A). Für so grottenschlechte Sicherheitsanalysen sollte man
lieber das Papier sparen.

Zitat:

Erik hat Folgendes geschrieben:
Ja, reicht doch erstmal. Deswegen sind sie ja nicht weg. Wer Lust hat, kann jetzt damit rumrechnen.

Irgendwie überlassen Ord et.al. etwas gar viele Überlegungen dem geneigten Leser oder der geneigten Leserin ...


Mir reicht's jedenfalls. 18 Seiten sind auch lang genug.

Zitat:

Erik hat Folgendes geschrieben:
Zitat:
Die Idee des Papers wäre es doch, diese TMC-Idee in den zweiten Summanden, also in P(X|notA)*P(notA) einzusetzen und gerade das unterbleibt ! Statt dessen setzen sie es in einen Term ein, der sowieso << P(X|notA)*P(notA) ist.


Nein, das ist nicht „die idee des papers“. Das ist nur eine Methode um P(notA) genauer rauszukriegen, als über die retraction rates.

Ja, aber warum führen die Autoren das denn nicht explizit durch ? Meinst Du wirklich, dass es in einem Follow-Up paper noch eine Fortsetzung dazu gibt ? Ich meine - der Erkenntnisgewinn des derzeitigen papers ist ja nicht gerade sehr hoch.


Das hat aber weniger mit der Genauigkeit von P(A) zu tun. Ansonsten machen sie es aus vielleicht demselben Grund nicht, weshalb die Theoretiker
ihre Experimente auch nicht gleich selbst durchführen.

Ob noch ein paper kommt, weiß ich nicht. Aber wenn es nur die Genauigkiet von
P(A) verbessert, lohnt es sich nicht.
Nach oben
Erik is offline Benutzer-Profile anzeigen Private Nachricht senden
ralfkannenberg



Anmeldedatum: 22.02.2006
Beiträge: 4788

BeitragVerfasst am: 06.07.2009, 17:48    Titel: Antworten mit Zitat

Erik hat Folgendes geschrieben:
Ja, aber was macht man, wenn man wissen will ob man sich in dieser konkreten Rechnung vertan hat? Man rechnet
nach oder fragt seine Kollegen, ob sie freundlicherweise auch nochmal einen Blick drauf werfen können. Was man sicher
nicht machen sollte, ist, Statistiken über Zahlendreher zu konsultieren.

Hallo Erik,

warum nicht ? Wenn ich weiss, dass meine Publikation zahlendrehergefährdet ist, dann ergreife ich vielleicht Massnahmen, um solche zu erkennen, z.B. Differenzen durch 9 dividieren. Letztes Jahr war ich Revisor im Kirchchor und habe mit dem "Trick" einen Buchungsfehler sehr rasch gefunden.

Erik hat Folgendes geschrieben:
Doch ich denke schon, daß man das kann, aber man hat nichts davon.
(...)
Vielleicht meinst du ja mit dem "pauschal" dasselbe wie ich oben. Jede Statistik ist irgendwie pauschal. Wenn man sich einmal darauf eingelassen hat, kriegt man eben nur noch pauschale Antworten.
Deswegen ist sie nicht "nichtssagen", sie sagt eben nur etwas über eine große Anzahl von Sicherheitsanalysen aus.
Nimm mal an, sie hätten alles richtig gemacht: P(C) und P(M|T) und P(T) exakt bis auf die 10. Nachkommastelle berechnet und
als Produkt P(A)=99,9900000000 % rausbekommen. Wüßten wir dann wie sicher der LHC ist?

Ist das wirklich die Aussage der "Probing the Improbable ..." ? - Ich war der Meinung, hier soll eine Art Methode bestimmt werden, mit der man herausfinden kann, wie gross die Restfehler sind. Aber nicht gemittelt über sehr viele Sicherheitsanalysen, sondern über die ganz konkrete von Dr.Giddings und Dr.Mangano.

Mit TMC wird eine Methoden eingeführt, die dann aber nicht weiter angewandt wird, sondern statt dessen eine wenig aussagekräftige Abschätzung, die ich pauschal genannt habe, weil sie auch für die anderen Risiken der "Physik der erweiterten Voraussetzungen" denselben Wert erhält. Diese Abschätzungen werden wie Du richtigerweise korrigiert hast begründet, aber diese Begründungen sind eben sehr allgemein und liefern für alle diese Situationen dasselbe Ergebnis.

Indem Ord et.al. ihre Überlegungen auf den LHC anwenden, können Sie bei gewissen Adressaten punkten; würden sie die identisch selben Überlegungen auf das spontane Sonnenerlöschen anwenden, würde man sie als absurd verspotten, ebenso bei den Zugskollisionen und der Wasserumwandlung.

Ich hatte von Anfang an die Idee, das Resultat eben auch auf diese anderen Szenarien anzuwenden und ich hatte schon vermutet, dass dabei absurd hohe Risiken herauskommen würden. Aber dass jedesmal dasselbe Risiko herauskommt ist für mich ein Indiz, dass die betrachtete Arbeit weitgehend wertlos ist, ein Indiz, dass sich schon bei der langatmigen mehrseitigen Einführung, die inhaltlich einem etwa 5-zeiligen Wikipedia-Artikel entspricht, andeutete.


Dabei würde doch genau hier die Chance liegen, sowas besser abzuschätzen, doch Ord et.al. haben dies - aus welchem Grunde auch immer - nicht getan.


Freundliche Grüsse, Ralf
Nach oben
ralfkannenberg is offline Benutzer-Profile anzeigen Private Nachricht senden
ralfkannenberg



Anmeldedatum: 22.02.2006
Beiträge: 4788

BeitragVerfasst am: 06.07.2009, 18:02    Titel: Antworten mit Zitat

Erik hat Folgendes geschrieben:
Wenn du P(notA) genauer bestimmst, wird es nicht weniger pauschal.

Hallo Erik,

das verstehe ich nun nicht: Wenn es mir gelingt - die nachfolgenden Zahlen haben nur Beispielcharakter - ein Restrisiko beim LHC in Höhe von 10^(-15), ein Restrisko bei der Sonnenumwandlung von 10^(-50), bei den Schnellzugkollisionen von 10^(-55) und bei der spontanen Wasserumwandlung von 10^(-60) zu finden, so wäre dieses Verfahren durchaus aussagefähig. Insbesondere würde der LHC dann ein immer noch zu hohes Risiko bergen, während die drei anderen Szenarien als harmlos einstufbar wären.

Doch bei Ord et.al. kommt jedesmal dasselbe heraus.

Erik hat Folgendes geschrieben:
Sie ist weder besser noch weniger pauschal. Nur kleiner. Du hast sie völlig frei erfunden, im Gegensatz zu den Autoren.
Wie kommst du also auf "besser"?

Wie schon gesagt - statt einem pauschalen Resultat hatte ich auf ein individuelles Resultat gehofft, das auch auf die anderen Situationen anwendbar gewesen wäre und eine doch "sinnvolle" Aussage hätte liefern können. Meine Zahlen waren "frei" erfunden (indem sie sie einfach mal der Einfachheit halber alle gleich gesetzt habe), aber ich dachte natürlich schon, in der Arbeit eine Anleitung zu finden, wie ich diese Zahlen besser abschätzen könnte.

Erik hat Folgendes geschrieben:
Also meinetwegen nicht.

Meinetwegen schon, zumal die LHC-Kritik ja regelmässig auf diese Arbeit von Ord et.al. referenziert.

Erik hat Folgendes geschrieben:

??? Trotzdem ist 1/1Billion wohl etwas klein für P(A). Für so grottenschlechte Sicherheitsanalysen sollte man
lieber das Papier sparen.

Hier habe ich offenbar etwas¨überhaupt nicht verstanden: Wieso schreibst Du, dass sie klein sei und nennst sie dann obendrein noch grottenschlecht ?

Erik hat Folgendes geschrieben:
Ob noch ein paper kommt, weiß ich nicht. Aber wenn es nur die Genauigkiet von P(A) verbessert, lohnt es sich nicht.

Natürlich nicht, die ist ja schon sehr gut. Nein - ich suche nach besseren Abschätzverfahren für P(X|notA) und P(notA) - denn deren Produkt ist ja bei diesen "Low Probabilities/High Stakes"-Risiken der dominante Term.


Freundliche Grüsse, Ralf
Nach oben
ralfkannenberg is offline Benutzer-Profile anzeigen Private Nachricht senden
Erik



Anmeldedatum: 28.03.2006
Beiträge: 565

BeitragVerfasst am: 06.07.2009, 19:21    Titel: Antworten mit Zitat

ralfkannenberg hat Folgendes geschrieben:
Erik hat Folgendes geschrieben:
Ja, aber was macht man, wenn man wissen will ob man sich in dieser konkreten Rechnung vertan hat? Man rechnet
nach oder fragt seine Kollegen, ob sie freundlicherweise auch nochmal einen Blick drauf werfen können. Was man sicher
nicht machen sollte, ist, Statistiken über Zahlendreher zu konsultieren.

Hallo Erik,

warum nicht ? Wenn ich weiss, dass meine Publikation zahlendrehergefährdet ist, dann ergreife ich vielleicht Massnahmen, um solche zu erkennen, z.B. Differenzen durch 9 dividieren. Letztes Jahr war ich Revisor im Kirchchor und habe mit dem "Trick" einen Buchungsfehler sehr rasch gefunden.


Genau das habe ich ja vorgeschlagen: nachrechnen (mit welchen Tricks auch immer). Aber zu wissen,
daß solche Buchungsfehler mit 3 % Wahrscheinlicheit vorkommen, nützt dir nichts.

Zitat:

Erik hat Folgendes geschrieben:
Doch ich denke schon, daß man das kann, aber man hat nichts davon.
(...)
Vielleicht meinst du ja mit dem "pauschal" dasselbe wie ich oben. Jede Statistik ist irgendwie pauschal. Wenn man sich einmal darauf eingelassen hat, kriegt man eben nur noch pauschale Antworten.
Deswegen ist sie nicht "nichtssagen", sie sagt eben nur etwas über eine große Anzahl von Sicherheitsanalysen aus.
Nimm mal an, sie hätten alles richtig gemacht: P(C) und P(M|T) und P(T) exakt bis auf die 10. Nachkommastelle berechnet und
als Produkt P(A)=99,9900000000 % rausbekommen. Wüßten wir dann wie sicher der LHC ist?

Ist das wirklich die Aussage der "Probing the Improbable ..." ? - Ich war der Meinung, hier soll eine Art Methode bestimmt werden, mit der man herausfinden kann, wie gross die Restfehler sind. Aber nicht gemittelt über sehr viele Sicherheitsanalysen, sondern über die ganz konkrete von Dr.Giddings und Dr.Mangano.


Was sonst soll P(A) bedeuten? Und schließlich bestimmen sie ja P(notA) und P(notC)
genau auf diese Weise: einen Haufen Paper und Rechnungen ansehen. Über Giddings und Mangano
sagt das Paper hingegen überhaupt nichts aus. Genaugenommen folgt statt P(G&M korrekt)
wieder nur eine bedingte Wahrscheinlichkeit, z.B. sowas wie:
P(G&M korrekt | G&M waren durchschnittlich sorgfältig beim Erstellen ihrer Analyse).
Das kann man immer so weiter treiben.


Zitat:

Mit TMC wird eine Methoden eingeführt, die dann aber nicht weiter angewandt wird, sondern statt dessen eine wenig aussagekräftige Abschätzung, die ich pauschal genannt habe, weil sie auch für die anderen Risiken der "Physik der erweiterten Voraussetzungen" denselben Wert erhält. Diese Abschätzungen werden wie Du richtigerweise korrigiert hast begründet, aber diese Begründungen sind eben sehr allgemein und liefern für alle diese Situationen dasselbe Ergebnis.


Die Argumentation mit T,M,C auch. Das ist erstmal nur nur eine mathematisch triviale
Umformung.


Zitat:

Indem Ord et.al. ihre Überlegungen auf den LHC anwenden, können Sie bei gewissen Adressaten punkten; würden sie die identisch selben Überlegungen auf das spontane Sonnenerlöschen anwenden, würde man sie als absurd verspotten, ebenso bei den Zugskollisionen und der Wasserumwandlung.


Nochmal, sie sind ja der Meinung, daß ihr Argument auf solche Fälle nicht angewendet werden
muß, weil es nützlichere Plausibilitätsüberlegungen dafür gibt. Sie vergessen aber, daß
es solche Überlegungen immer gibt und diese im konkreten Einzelfall immer nützlicher sind.

Zitat:

Ich hatte von Anfang an die Idee, das Resultat eben auch auf diese anderen Szenarien anzuwenden und ich hatte schon vermutet, dass dabei absurd hohe Risiken herauskommen würden. Aber dass jedesmal dasselbe Risiko herauskommt ist für mich ein Indiz, dass die betrachtete Arbeit weitgehend wertlos ist, ein Indiz, dass sich schon bei der langatmigen mehrseitigen Einführung, die inhaltlich einem etwa 5-zeiligen Wikipedia-Artikel entspricht, andeutete.


Wenn du der Argumentation aus Abschnitt 5 Absatz 2 sowieso nicht folgst, wundert mich, daß
du was anderes erwartet hast.

Zitat:

Dabei würde doch genau hier die Chance liegen, sowas besser abzuschätzen, doch Ord et.al. haben dies - aus welchem Grunde auch immer - nicht getan.


Nein, da gibt es keine Chance, worin soll die bestehen? P(A)=P(C)P(M|T)P(T) können wir als
mathematische Trivialität betrachten (nicht ganz, da statistische Unabhängigkeit einiger
Ereignisse vorausgesetzt wird). Dann ist völlig klar, daß es (bis auf die Genauigkeit) egal
ist, ob ich P(A) als ganzes abschätze oder die einzelnen Faktoren. Wenn jedenfalls auf beiden
Seiten was signifikant anderes rauskommt, würde man sowieso annehmen, daß einige implizite
Annahmen über statistische Unabhängigkeit unzutreffend sind und wieder eine mathemantische
Trivialität draus machen (mit entsprechend mehr Faktoren zum Abschätzen). Trotzdem ist die
resultierende Aussage genauso pauschal und läßt sich wieder auf kollidierende Züge oder
fallengelassene Bleistifte anwenden.
Nach oben
Erik is offline Benutzer-Profile anzeigen Private Nachricht senden
Beiträge der letzten Zeit anzeigen:   
Neues Thema eröffnen   Neue Antwort erstellen    Alpha Centauri Foren-Übersicht -> LHC-Widerstand Alle Zeiten sind GMT + 1 Stunde
Gehe zu Seite Zurück  1, 2, 3  Weiter
Seite 2 von 3

 
Gehe zu:  
Du kannst keine Beiträge in dieses Forum schreiben.
Du kannst auf Beiträge in diesem Forum nicht antworten.
Du kannst deine Beiträge in diesem Forum nicht bearbeiten.
Du kannst deine Beiträge in diesem Forum nicht löschen.
Du kannst an Umfragen in diesem Forum nicht mitmachen.


Powered by phpBB © 2001, 2005 phpBB Group
Deutsche Übersetzung von phpBB.de

Nutzungsbedingungen des Forums Alpha Centauri
Impressum: Karl Hilpolt,
Paradeplatz, 8001 Zürich, Schweiz
e-mail: webmaster (at) relativ-kritisch (dot) net