Das ist das grundsätzliche Problem aller Modellversuche, die in letzter Zeit debattiert werden, dahinter steckt eine prinzipiell gute Idee, die aber nicht bis zu Ende gedacht wurde. An der TU Berlin gibt es nach ersten Meldungen einen sehr guten Ansatz, das Infektionsgeschehen anhand eines Risikomodells zu beschreiben. Hierbei werden im Computer tausende Avatare betrachtet, die typisches Verhalten zeigen und für die es jeweils der Situation entsprechende Risiken gibt sich zu infizieren bzw. auch eine Infektion weiter zu geben. Mit solchen Modellen müsste man zunächst erst einmal abschätzen, was man zulassen will und welche Voraussetzungen dafür zu ergreifen sind. Als nächsten Schritt kann man dann Störgrößen modellieren wie Touristenströme oder ein verringertes Risikobewusstsein mit häufigeren Regelverstößen. Außerdem kann man abschätzen, welche Öffnungen welches Risiko und damit welche Auswirkungen auf die Ausbreitung des Virus haben.
Und wenn im übelsten Fall rauskommt, dass eben nichts zusätzlich geht, dann fährt man den Karren halt nicht an die Wand.
Dass man mit Massentests infizierte Personen finden und aus dem Infektionsgeschehen rausnehmen kann ist unbestritten. Aber jede Lockerung verstärkt eben auch das Infektionsgeschehen, und diese Balance zu finden ist das Problem. Wenn man das nicht anhand von Zahlen abschätzen kann, dann wären kleine Schritte nötig, aber da meint die Politik zu oft, dass sie eine Situation einschätzen kann und macht zu vieles gleichzeitig auf.
Spätestens wenn man sich die Differentialgleichungen hinter dem noch recht einfachen SIR-Modell ansieht, entdeckt man, dass das eben nicht trivial abschätzbar ist.
Tante Edith meint, dass man sich bei den Tests schon an die Anleitung halten muss, sonst ist es sinnlos und am Ende ein Gefährdung aller Beteiligten. Da ist ein Scheitern voraussehbar.