Paradoks pozornej dokładności
Do paradoksów należy to, że wprawdzie współczesna elektronika stwarza nowe, dotychczas nieznane, możliwości jednak towarzyszą im nowe zagrożenia. Wynikają one z tego, że pozornie duża dokładność obliczeń w sensie liczby miejsc po przecinku i wiara w moc modeli potrafią dość skutecznie wyłączyć naturalne procesy ochronne i odporność na zdarzenia nie mieszczące się w określonych schematach. Ostatecznie dla wyników obliczeń decydujące znaczenie mają zawsze warunki brzegowe, a znajomość szeregu zjawisk pozostaje nadal mocno ograniczona, w szczególności w odniesieniu do potrzeb modelowania.
Awarie przewidywalne
Zawsze może wystąpić przypadkowa awaria, pomimo dokładnej kontroli jakościowej nie da się uniknąć wszystkich potencjalnych zagrożeń. Charakterystycznym przykładem jest sytuacja, która wystąpiła przy budowie rurociągu stalowego o jednej z największych w Polsce średnic. Wprawdzie na etapie wytwarzania elementów, później spawanych na budowie, zastosowano kontrolę jakości zgodną z ówczesnymi wysokimi standardami, jednak nie udało się wykryć wady materiałowej jednego z elementów. Dopiero w trakcie końcowych prac spawalniczych (młotkowanie) spawacze zwrócili uwagę na nietypowy dźwięk będący efektem wystąpienia pustej przestrzeni w ściance rury. Chodzi jednak o sytuacje przewidywalne, będące konsekwencją lekceważenia potencjalnych zagrożeń. Obecnie, co najmniej w odniesieniu do tworzyw sztucznych, problem ten generalnie nie istnieje, o ile zostanie zachowany zakres stosowania wyrobu i o ile przestrzega się reżimu produkcji; z tym ostatnim bywa jednak bardzo różnie.
Pierwsze konsekwencje sygnalizowanego problemu pojawiły się już ok. 40 lat temu, gdy np. w niektórych przypadkach zredukowano istotnie poziom współczynnika bezpieczeństwa przy projektowaniu zatapianych syfonów. Pominięto również zagadnienia związane ze stabilizacją ich położenia oraz kompensację prawdopodobnych odkształceń (ten ostatni problem „objawił się” znowu niedawno temu – nikt nie pomyślał, że dla różnicy temperatur na poziomie 20 K to przy dłuższym rurociągu może być całkiem sporo…) – bo wszystko wydawało się być takie proste. Efektem był szereg mniej lub bardziej spektakularnych awarii. Problem nadmiernej wiary w pozorną dokładność obliczeń pojawia się wielokrotnie w przypadku wyrobów metalowych. Nigdy nie można być pewnym losowego wystąpienia wad materiałowych – przykładowo przy braku rezerwy wytrzymałości awaria nawet pojedynczego dźwigara podtrzymującego konstrukcję o dużej powierzchni może pociągnąć za sobą uszkodzenia kolejnych i w efekcie może dojść do katastrofy konstrukcji.
Kolejnym problemem stała się wytrzymałość armatury, przy tym dążenie do obniżenia ceny prowadzi do ograniczania masy wyrobu. Pozornie niewielka, kilkuprocentowa, redukcja masy korpusu zaworu, może „średnio” mało istotna, w bardziej narażonych osłabionych miejscach (np. w karbach gwintów) może łatwo skutkować awariami. Przykładowo obniżenie masy zaworów firmowanych przez znanego producenta o ok. 5% skutkowało serią przykrych awarii – zamontowane zawory po pewnym czasie po prostu „wystrzeliwały” ze ścian. Jest to sytuacja, którą można zaliczyć do grupy najbardziej spektakularnych, jednak nieodpowiednia jakość armatury (również sieciowej) ujawniła się również w innych sytuacjach.
Oddzielnym problemem pozostaje nadal dość częsta tolerancja „bylejakości”. W fazie projektu to przede wszystkim oszczędności na pracach przedprojektowych skutkują obniżeniem jakości dokumentacji, co stwarza istotne zagrożenia dla inwestycji. Kolejnym problemem pozostaje jakość wykonawstwa, dotychczas były to przede wszystkim kwestie związane z posadowieniem w podłożu gruntowym (lub wodnym).
Jednak od pewnego czasu występują inne problemy związane z pozornie skuteczniejszym i bezpieczniejszym zgrzewaniem elektrooporowym rur z tworzyw sztucznych. Z jednej strony są to konsekwencje braku przygotowania zawodowego, z drugiej brakiem zrozumienia znaczenia procedur oraz specyfiki wymagań różnych zgrzewarek. W każdym razie powtarzające się określone uszkodzenia nie mogą być akceptowane, a praca zgrzewaczy wymaga ich doszkalania w miarę wprowadzania nowego wyposażenia i znacznie staranniejszego nadzoru.
Podstawy projektowania
Oczekiwań na poprawę trafności określeń ilościowych (prognoz przyszłych potrzeb) w wodociągach i kanalizacji nie udało się spełnić. W warunkach zmienionych zasad planowania zagospodarowania przestrzennego nie jest możliwa kontynuacja dotychczasowych sposobów określania wielkości zapotrzebowania na wodę oraz ilości odprowadzanych ścieków. Ostatecznym efektem sztucznych bilansów opartych na bilansach nierealnych wskaźników są niewłaściwie zwymiarowane sieci, wymagające szczególnej eksploatacji.
Wbrew pozorom obecna sytuacja wydaje się być najkorzystniejsza w odniesieniu do ocen ilościowych dla najmniej przewidywalnych wód opadowych. Rozpoczęte niedawno temu prace w zakresie indywidualnych ocen dla poszczególnych systemów ocen ilościowych dla poszczególnych konkretnych lokalizacji (por. [8]) są już obecnie bardzo zaawansowane, czego przykładem jest m.in. kompleksowy program „Bydgoska retencja+2050” związany z zagospodarowaniem wód opadowych. Kompleksowość podejścia do istniejących problemów pozwala uniknąć błędów charakterystycznych dla działań wyrywkowych polegających na lekceważeniu poszczególnych elementów składających się na systemy.
Oczywiście, żadna ocena odnosząca się do wód opadowych nie może być traktowana jako kompletna, każda decyzja musi być traktowana w kategorii „wyboru mniejszego zła”. Pozostaje jednak zawsze zachowanie jakiegoś marginesu bezpieczeństwa wprowadzonego normą [2], lub wytyczną DWA A118 (w starszej wersji dostępnej w języku polskim [5]). Tu jednak pojawia się inny problem – bardzo często ekstremalne opady różnią się diametralnie od wcześniej obserwowanych zjawisk, a co najmniej powszechnie akceptowanych hipotez. Przykładowo:
–– przed 1997 r. dość powszechnie twierdzono, że w polskich realiach nie ma miejsca dla powodzi pochodzącej od deszczu,
–– od tego czasu tego rodzaju zjawisko powtarza się co najmniej raz do roku (nawet wyjątkowo suchym latem 2018 lokalnie pojawiło się zagrożenie i konieczne było np. awaryjne wypompowywanie wody z dużego zbiornika na tzw. tacę rozlewową),
–– charakterystyki (intensywność, czas trwania) kolejnych zdarzeń ekstremalnych nie mieszczą się w tradycyjnych schematach,
–– opad o bardzo wysokim natężeniu może trwać nie kilka – kilkanaście minut, ale przez kilka godzin,
–– istniejący system rejestracji opadów nie może być traktowany jako zadowalający ze względu na lokalizację punktów pomiaru i niewystarczający zakres rejestracji opadów (przykładowo w trakcie powodzi 2001 r. istniejące w Gdańsku stacje IMGW nie były praktycznie w stanie zarejestrować opadu, później podawane oficjalne informacje są mocno problematyczne),
–– przynajmniej w warunkach gdańskich kolejne zagrożenia zmieniają miejsca swojej lokalizacji; lubią się one pojawiać na terenach wcześniej traktowanych jako bezpieczne.
Ostatecznie z dotychczasowej praktyki wynika, że zawsze przygotowujemy się do tego co się już zdarzyło, a nie do tego co się może wydarzyć. Z drugiej jednak strony np. nawet nie do końca zrealizowany pierwotny (2001) gdański program rozbudowy zbiorników retencyjnych pozwolił uzyskać kilkunastoletni okres względnego bezpieczeństwa miasta (aczkolwiek szereg razy występowały zagrożenia, jednak wykonane zbiorniki oraz odpowiednie działania interwencyjne pozwoliły je wyeliminować). W aspekcie lokalizacji inwestycji zrealizowany program nie był zrównoważony i został podporządkowany lokalizacji zdarzeń w 2001 r., zlekceważono inne kierunki, na których rozwinęła się sytuacja w 2016 r. Stąd znaczenie kompleksowych programów, np. wspomniana już wcześniej „Bydgoska retencja+2050”, pozwalających poprzez symulacje definiować różne scenariusze przyszłego rozwoju zjawisk i odpowiednio modyfikować istniejące systemy.
Modelowanie sieci
Zasadnicze trudności mogą wystąpić już na etapie poznania stanu istniejącego – ze względu na to, że przez ok. 30 lat praktycznie zrezygnowano z przygotowania dokumentacji powykonawczej (powszechne rozliczenie ryczałtowe) oraz wielokrotne zmiany strukturalne „przedsiębiorstw” szereg eksploatatorów może w ogóle nie dysponować żadną dokumentacją projektową, ale jedynie fakturami rozliczeniowymi. Wprawdzie wielu z nich stara się uzupełniać materiały, jednak informacje dla potrzeb modelowania sieci będą wymagały korekt. W przypadku sieci ciśnieniowych obok trasy potrzebne jest sprawdzenie rodzaju materiału (polowy pomiar szorstkości rur) oraz rzeczywistych średnic. Zwraca uwagę możliwość występowania istotnych różnic pomiędzy rzeczywistą (pomierzoną) szorstkością a wskaźnikami katalogowymi.
Charakterystyczna sytuacja wystąpiła w jednej z gdańskich ulic, gdzie wg nazwy zadania inwestycyjnego miała znajdować się magistrala Ø350mm. W rzeczywistości była to jednak tylko robocza nazwa zadania inwestycyjnego, w ramach którego powstały również przewody Ø300 – Ø200mm, których obecności nikt nie spodziewał się. Występują również sytuacje, gdy wcześniej istniejące przewody wymieniono bez korekt informacji – w skrajnym przypadku przy planowej wymianie żelbetowego przewodu ciśnieniowego okazało się, że ktoś już to wcześniej zrobił… Sytuacja znacznie komplikuje się w przypadku sieci grawitacyjnych i grawitacyjno – ciśnieniowych. Konieczne jest wówczas rozeznanie: –– czyją własnością jest konkretny przewód,
–– co konkretnie płynie przewodem – np. czy są to wody opadowe, czy ścieki sanitarne,
–– jaki jest kierunek przepływu,
–– średnica, typ przekroju oraz materiał,
–– lokalizacja, i rodzaj armatury,
–– głębokości i spadki przewodów.
Zwraca uwagę fakt, że mówiąc o „spadku” uwzględnia się wartość średnią pomiędzy dwiema studzienkami, pomijając zaniżenia i zawyżenia na trasie mogące decydować o warunkach przepływu. Dokładne zbadanie sieci grawitacyjnej jest możliwe poprzez wykonanie pogłębionej inspekcji [2], [3] co jest mało prawdopodobne w bliskiej przyszłości w polskich realiach. Stąd efektem jest zawsze jakieś uśrednienie i tylko przybliżone zdefiniowanie miejsc krytycznych.
Biorąc pod uwagę wyniki dotychczasowych wyrywkowych analiz można się spodziewać, że konieczne będzie uzupełnienie danych (łącznie z pomiarami geodezyjnymi) o znacznej części istniejących sieci grawitacyjnych. Będzie to prawdopodobnie w poszczególnych systemach dotyczyć od kilkunastu do nawet kilkudziesięciu procent ich długości. Ponadto można spodziewać się ujawnienia szeregu dotychczas niewidocznych problemów technicznych. Dość szczególne miejsce może tu zająć, tradycyjnie przez wiele lat lekceważona, sieć kanalizacji deszczowej.
Przepływy
Rzeczywiste przepływy w sieciach wodociągowych mogą być ustalone w akceptowalnych granicach przez pomiar oraz symulacje [1]. Wprawdzie przy uwzględnieniu określonego prawdopodobieństwa opadu da się też w miarę wiarygodnie określić wielkości obciążeń coraz częściej z uwzględnieniem elementu lokalnego, ale zawsze może wystąpić opad nie mieszczący się w określonych granicach i w konsekwencji nastąpi wylanie. Stąd można przyjąć za nadrzędne to, że zdarzenia ekstremalne nie występują zbyt często i aby w związku z tym zapewnić jakiś minimalny komfort użytkownikowi, choćby korzystając z normy [2], lub wytycznej A118 [5].
Z kolei ustalenia ilościowe odnoszące się do ścieków sanitarnych są bardzo problematyczne i zagadnienie jest bardziej skomplikowane. Przede wszystkim w odniesieniu do większości emisji mają one charakter bardzo umowny – wprawdzie powszechnie dla potrzeb rozliczeniowych przyjmuje się (poza przemysłem), iż jest ona równa wielkości zużycia wody, ale trudno jest na tej podstawie wnioskować zbyt daleko. To, że w dłuższym przedziale czasu można przyjąć z pewnym przybliżeniem tę relację nie świadczy o analogiczności rozkładu w czasie przepływów.
Brak skorelowania rozkładu poboru wody i obciążeń oczyszczalni ścieków obserwowano przy okazji różnych analiz. Do podstawowych problemów należy forma ruchu w instalacjach kanalizacyjnych oraz przykanalikach i kolektorach. Wprawdzie przyjmujemy, że teoretycznie równoczesność odpływu powinna być zbliżona do poboru wody, jednak pozostaje zagadnieniem otwartym do jakiego stopnia przepływ odbywa się przez ociekanie (piony) i sączenie (poziomy). Przykładowo w trakcie próby sprawności systemu płukania przewodu Ø150 mm stwierdzono, że przepływ wody (300 dm3, zrzut ze zbiornika na wysokości ok. 2 m) po kilkunastu metrach długości przewodu spowalnia, a po ok. 50 m staje się praktycznie niewidoczny. Sączenie po dnie jest nieefektywne w aspekcie płukania, a sam przepływ bardzo poważnie różni się od zakładanego w projektach. Biorąc pod uwagę obserwacje przykanalików [3] można oczekiwać, że rzeczywiste odpływy z instalacji będą spowolnione, różniąc się od poboru wody. Zresztą zmiany wyposażenia mieszkań w okresie ostatnich ok. 30 lat prowadzą do ograniczenia intensywności odpływu ścieków w instalacjach.
Dodatkowe problemy wiążą się z częstą obecnością licznych, również w małych systemach, przepompowni ścieków. W szczególności na sieciach o mniej intensywnym obciążeniu nawet niewielka przepompownia w sposób istotny zakłóca hydraulikę poprzez długie zatrzymanie spływu. Charakterystyczny cykl pracy przepompowni skutkuje zmianami rozkładu przepływów na kolejnych odcinkach.
Ostatecznie rozkład w czasie odpływu ścieków musi różnić się istotnie od analogicznego rozkładu poboru wody. Ewentualne podobieństwa będą raczej efektem przypadku i bez przeprowadzenia pomiaru przepływów ścieków trudno jest oczekiwać pozytywnego efektu symulacji prowadzonych w oparciu o analizy poboru wody. Równocześnie rozkłady będą mieć indywidualny charakter dla danego systemu oraz okresu ich opracowania. To co można zaakceptować jako bazę ogólnych kalkulacji oraz rozliczeń finansowych nie może stanowić podstawy do precyzyjnych analiz modelowych.
Podsumowanie
Niezależnie od wszystkich zastrzeżeń trzeba podkreślić celowość i konieczność wykorzystywania nowych technik przy projektowaniu oraz analizowaniu istniejących systemów sieciowych. Analizując wyniki symulacji trzeba jednak zdawać sobie sprawę z istniejących braków w zakresie podstawowych informacji oraz znaczenia czynnika przypadku.
Nie można przy tym ulec magii dokładności obliczeń i bezkrytycznie przyjmować ich wyników. Ponadto w odniesieniu do zjawisk meteorologicznych trzeba pamiętać o tym, że ich znajomość jest nadal niewystarczająca. Największe problemy stwarzają zawsze zdarzenia wcześniej nie obserwowane (nie oznacza to, że nie wystąpiły one wcześniej – w miarę wiarygodne obserwacje meteorologiczne pochodzą dopiero z okresu ok. 100 ostatnich lat). Zjawiska opadowe dość systematycznie obserwowane w okresie ostatnich 20 lat są jednoznacznie niezgodne z szeregiem wcześniejszych założeń traktowanych w charakterze pewnika, stąd np. znaczenie doprecyzowania już tylko samej definicji „powodzi” w [8].
B I B L I O G R A F I A
[1] Kulbik M.: Komputerowa symulacja i badania terenowe miejskich systemów wodociągowych. Wydawnictwo Politechniki Gdańskiej, s. Monografie, Gdańsk 2004
[2] PN-EN 752: Zewnętrzne systemy kanalizacyjne
[3] Raganowicz A.: Analiza stanu kanalizacyjnych przyłączy kamionkowych. Instal 4/2013
[4] Raganowicz A.: Analiza uszkodzeń kamionkowej sieci sanitarnej. Instal 9/2013
[5] Schmitt T.: „Komentarz do ATV-A118 Hydrauliczne wymiarowanie systemów odwadniających”. DWA Hennef 2000, wersja polskojęzyczna Wydawnictwo Seidel-Przywecki, Warszawa
[6] Suligowski Z., Fudala – Książek S.: Wykonanie i odbiór sieci kanalizacyjnych. Wydawnictwo Seidel-Przywecki, Warszawa 2016
[7] Ustawa z dnia 20 lipca 2017 r „Prawo wodne”, Dziennik Ustaw 2017, poz. 1566
[8] www.retencja.pl
prof. dr hab. inż. Ziemowit Suligowski – PWSZ Elbląg; ziemowit.suligowski@pg.edu.pl