Pogorszenie koniunktury w mleczarstwie. W tych warunkach trudno planować inwestycje w cele środowiskowe
Głęboki sen może być uzupełnieniem leczenia. Stymulowanie fal wolnych w czasie snu korzystnie wpływa...
Naukowcy z Zurychu wykazali, że dłuższy głęboki sen korzystnie wpływa na układ sercowo-krążeniowy. Stymulacja dźwiękowa ukierunkowana na wytwarzanie fal wolnych spowodowała u badanych poprawę efektywności pracy serca. Odkrycie może mieć znaczenie w leczeniu chorób kardiologicznych, alzheimera oraz w sporcie jako sposób na zwiększenie wydajności pracy serca i zapewnienia szybszej regeneracji po treningach.
– Sen głęboki oznacza fazę snu wolnofalowego, w skrócie określanego jako NREM [non rapid eye movement, czyli charakteryzująca się wolnym ruchem gałek ocznych – red.]. Większość osób prawdopodobnie słyszała o dwóch fazach snu – NREM i REM. Fazę NREM można dodatkowo podzielić na sen lekki i głęboki. W czasie snu głębokiego mózg wytwarza fale dominujące o wysokiej amplitudzie, tzw. fale wolne. Im więcej takich fal i im bardziej są one wyraźne, tym głębiej śpimy – tłumaczy w rozmowie z agencją Newseria Innowacje dr Caroline Lustenberger, kierowniczka grupy badawczej w ETH Zurich, od 13 lat zajmująca się zagadnieniem snu.
Istnieje wiele badań poświęconych wpływowi snu głębokiego na zdrowie, m.in. na wspomaganie pamięci czy neuroplastyczność mózgu. Charakterystyczne dla niego fale wolne odpowiadają za działanie regeneracyjne. Gdy sen głęboki zostaje przerwany, może wywołać serię niekorzystnych dla zdrowia mózgu procesów i powodować różne zaburzenia, takie jak choroba Alzheimera.
– Sen, w tym sen głęboki, ma duży wpływ nie tylko na mózg, ale także na funkcje obwodowe organizmu. Coraz więcej badań wskazuje na to, że sen głęboki bierze udział we wspieraniu działania układu odpornościowego i zdrowia układu sercowo-naczyniowego. Nasze najnowsze badanie wykazało, że podniesienie jakości snu głębokiego i wzmocnienie fal wolnych przyczynia się również do lepszego funkcjonowania serca – mówi Caroline Lustenberger.
Badanie zostało przeprowadzone przez naukowców z ETH Zurich i Uniwersytetu w Zurychu na grupie 18 zdrowych osób w wieku od 30 do 57 lat. Uczestnikami byli tylko mężczyźni, co pozwoliło obserwować efekty niezakłócone innymi czynnikami, takimi jak cykl menstruacyjny czy różnice między płciami. Badani spędzili w laboratorium snu trzy nienastępujące po sobie noce. Przed każdą z nich przestrzegali regularnego harmonogramu snu i czuwania, powstrzymywali się od kawy, alkoholu, intensywnego wysiłku i drzemek. Przez dwie eksperymentalne noce mężczyźni byli poddawani stymulacji dźwiękowej. W tym czasie naukowcy mierzyli aktywność mózgu, czynność serca i ciśnienie krwi badanych osób. Wykorzystano system elektroencefalografii o dużej gęstości, dwie elektrody elektrokardiograficzne (EKG) oraz nowoczesny nieinwazyjny system ciągłego monitorowania ciśnienia krwi.
Pomiary zbierał i analizował system komputerowy. Gdy odczyty wykazały, że badana osoba wpadła w głęboki sen, komputer emitował serię krótkich dźwięków, zwanych szumem różowym, po których następowała kilkusekundowa cisza i kolejna emisja. Ta metoda pozwoliła wykazać, że szum różowy wzmacnia fale wolne, a więc poprawia głęboki sen. Okazało się ponadto, że wzrost fal mózgowych podczas głębokiego snu korzystnie wpływa na reakcję układu sercowo-naczyniowego.
Po nocy kardiolodzy wykonali badanie ultrasonograficzne serca (USG). Wykazało ono, że po nocnej stymulacji dźwiękiem lewa komora (odpowiadająca za pompowanie krwi do całego ciała) intensywniej się kurczyła i rozkurczała. Dzięki temu zwiększał się przepływ krwi w organizmie.
– Efekty obserwowaliśmy nie tylko podczas snu, ale przy stymulacji bezpośredniej w formie krótkich pulsacji sercowo-naczyniowych, skutkujących bardzo niewielkim wzrostem tętna, po którym następował spadek, oraz nieznacznym wzrostem ciśnienia krwi. Te krótkie pulsacje mają miejsce nie tylko przy odtwarzaniu dźwięku, ale także naturalnie podczas snu, gdy występują bardzo silne fale wolne, tzw. zespoły K. Podczas stymulacji doprowadziliśmy więc do powstania większej ilości silnie zsynchronizowanych fal wolnych, które prowadzą do powstawania pulsacji sercowo-naczyniowych – wyjaśnia badaczka z ETH Zurich.
Jak podkreśla, fakt, że można wzmocnić funkcjonowanie serca oraz efektywność skurczu i rozkurczu, może mieć istotne skutki dla zdrowia. Stymulacja fal wolnych mogłaby stanowić uzupełnienie leczenia farmakologicznego przy schorzeniach układu sercowo-naczyniowego. W badaniu brali jednak udział tylko zdrowi mężczyźni, więc wykazanie tego, na ile ta metoda może być skuteczna w terapii zaburzeń, wymaga dodatkowych badań.
Według WHO choroby układu krążenia są główną przyczyną zgonów na świecie. Rocznie z ich powodu umiera niemal 18 mln ludzi. Przyczyną śmierci są przede wszystkim zawały serca i udary mózgu. Jedna trzecia zgonów następuje przedwcześnie, u osób poniżej 70. roku życia.
– Warto spojrzeć na sen jako na czynnik zapobiegający, który wraz z odpowiednim odżywianiem i ćwiczeniami fizycznymi można włączyć do profilaktyki, aby ograniczyć liczbę osób z chorobami układu sercowo-naczyniowego oraz zmniejszyć obciążenie społeczeństwa związane z tymi chorobami – mówi Caroline Lustenberger.
Metoda zastosowana przez naukowców z Zurychu może być jednak wykorzystana nie tylko do terapii chorób kardiologicznych, ale też np. do zwiększenia wydajności układu sercowo-naczyniowego u sportowców. Wyniki mogą się okazać istotne nie tylko pod kątem zdrowia serca.
– Z ogółu badań wiemy, że związek między mózgiem a sercem może być bardzo istotny dla oczyszczania mózgu. Niedawno odkryto, że mózg ma system, tzw. system glimfatyczny, który jest dla nas ważny, ponieważ oczyszcza go ze zbędnych substancji, które powstają podczas aktywności neuronalnej i po pewnym czasie muszą zostać usunięte. Ten proces odbywa się podczas głębokiego snu, gdzie fale wolne prawdopodobnie odgrywają istotną rolę – tłumaczy badaczka z ETH Zurich. – Nasza metoda może więc okazać się bardzo korzystna we wspieraniu procesu oczyszczania mózgu, co może być przydatne w opracowaniu działań profilaktycznych w stanach, gdy ten proces oczyszczania jest ograniczony, na przykład w chorobie Alzheimera.
Polskie firmy wdrażają innowacyjne rozwiązania związane z ponownym wykorzystaniem odpadów. Takie działania wciąż jednak...
– Proces transformacji w kierunku gospodarki obiegu zamkniętego jest z pewnością kosztowny, ale to są działania rozłożone w czasie i trzeba myśleć o nich nie jako o kosztach, ale jako o długofalowych inwestycjach. W efekcie mają przynieść firmom korzyści związane m.in. z oszczędnościami czy poprawą konkurencyjności – mówi Izabela Banaś, zastępca dyrektora Departamentu Analiz i Strategii w Polskiej Agencji Rozwoju Przedsiębiorczości. Jak wskazuje, rozwiązania z obszaru GOZ powinny być na polskim rynku szerzej promowane i taki był właśnie cel konkursu PARP, w którym wyłoniono 24 innowacyjne rozwiązania – zarówno produkty, jak i modele biznesowe. Pokazują one, że osiągnięcie efektów środowiskowych i jednocześnie korzyści ekonomicznych jest możliwe w niemal każdej branży, niezależnie od wielkości firmy.
Gospodarka obiegu zamkniętego (GOZ) to przeciwieństwo obecnej gospodarki liniowej, opartej na modelu „wyprodukuj, użyj, wyrzuć”. Zakłada ona m.in., że zużyte produkty są poddawane recyklingowi i zwracane do obiegu, co pozwala zaoszczędzić surowce, zmniejszyć ślad węglowy i zredukować ilość odpadów do minimum. Przejście na gospodarkę o obiegu zamkniętym jest też – jak wskazuje Komisja Europejska – warunkiem osiągnięcia neutralności klimatycznej do 2050 roku. Dlatego UE przyjęła w ostatnich latach szereg regulacji, które mają zbliżyć państwa członkowskie do wdrożenia modelu cyrkularnego. Co istotne, ma on przynieść nie tylko ogromne korzyści środowiskowe, ale i finansowe – KE szacuje, że zastosowanie zasad GOZ w całej gospodarce UE może się przyczynić do zwiększenia unijnego PKB o 0,5 proc. do 2030 roku oraz stworzenia ok. 700 tys. nowych miejsc pracy. Na cyrkularności skorzystają też firmy, ponieważ GOZ może chronić je przed wahaniami cen surowców oraz zwiększyć ich rentowność i konkurencyjność. Jest też szansą na rozwój innowacji, ponieważ ten model na nowo projektuje modele biznesowe, głęboko przekształcając łańcuchy produkcji i konsumpcji.
– Nasze badania pokazują, że ponad 70 proc. przedsiębiorców uwzględnia kwestie środowiskowe przy podejmowaniu decyzji biznesowych. To dosyć duży odsetek, choć jeśli weźmiemy pod uwagę to, dla ilu przedsiębiorców te kwestie mają znaczenie fundamentalne, to wygląda znacznie gorzej – mówi agencji Newseria Biznes Izabela Banaś z Departamentu Analiz i Strategii Polskiej Agencji Rozwoju Przedsiębiorczości.
Tegoroczny raport opracowany przez Politykę Insight („Potencjał gospodarki obiegu zamkniętego”) pokazuje, że jak na razie tylko 37 proc. rodzimych firm produkcyjnych deklaruje podejmowanie działań związanych z modelem gospodarki obiegu zamkniętego, a praktyki wdrażane przez nie to najczęściej ponowne wykorzystanie odpadów i opakowań, segregacja odpadów i recykling. Chociaż 78,8 proc. polskich firm wytwarza odpady nadające się do recyklingu, tylko około połowa z nich wykorzystuje surowce wtórne w procesie produkcji. To pokazuje, jak duży jest potencjał związany z redukcją ilości wytwarzanych odpadów, ich ponownym wykorzystaniem, przetwarzaniem, odnawianiem produktów i odzyskiem zasobów w procesie produkcji. Ponad połowa przedsiębiorstw w Polsce może rozważyć praktyczne zastosowanie koncepcji gospodarki obiegu zamkniętego. Z badania wynika też, że w rozwiązania z zakresu GOZ obecnie inwestuje 11,5 proc. firm, jednak kolejne 16,7 proc. ma takie plany.
– Proces całkowitej transformacji w kierunku gospodarki obiegu zamkniętego jest z pewnością kosztowny, ale musimy mieć świadomość, że są to działania rozłożone na dłuższy czas, niektóre są bardziej, inne mniej kosztowne. Powinniśmy jednak myśleć o nich nie jako o kosztach, ale długofalowych inwestycjach, bo przecież te działania w efekcie mają przynieść firmom pewne korzyści, związane m.in. z oszczędnościami czy poprawą konkurencyjności – mówi ekspertka.
Jak wskazuje, rozwiązania z obszaru GOZ powinny być na polskim rynku szerzej promowane. Taki był cel konkursu PARP, skierowanego do polskich firm niezależnie od ich wielkości i branży. Zgłoszone do niego rozwiązania musiały być wdrożone od co najmniej sześciu miesięcy przed złożeniem wniosku konkursowego. Uczestnicy mieli też wykazać mierzalne efekty realizowanych działań w zakresie GOZ, korzyści z wdrożenia rozwiązania oraz wpływ rozwiązania na otoczenie przedsiębiorstwa – kontrahentów, klientów i lokalną społeczność.
– Celem była popularyzacja dobrych praktyk, chcieliśmy pokazać przedsiębiorcom, co robią inni w obszarze gospodarki obiegu zamkniętego. Chcieliśmy też pokazać, że można podejmować działania, które służą zarówno środowisku, jak i temu, żeby osiągać w firmie określone efekty biznesowe – mówi przedstawicielka Departamentu Analiz i Strategii PARP. – Dostaliśmy 79 zgłoszeń i to były bardzo ambitne projekty. Powiem szczerze, że mieliśmy duży problem, żeby wyłonić z tej grupy laureatów.
W konkursie nagrodzono 24 rozwiązania z obszaru gospodarki o obiegu zamkniętym – zarówno produkty, jak i modele biznesowe, które pokazują, że osiągnięcie efektów środowiskowych, a jednocześnie korzyści ekonomicznych jest możliwe w niemal każdej branży, niezależnie od wielkości firmy.
– Rozwiązania zgłoszone w konkursie dotyczyły zarówno nowych, innowacyjnych technologii, jak i modeli biznesowych, znanych już w gospodarce, ale zastosowanych w nowych obszarach – mówi Izabela Banaś.
Konkurs był prowadzony w dwóch kategoriach – produkt wdrożony (u uczestnika konkursu lub u jego klienta) oraz wdrożony model gospodarki o obiegu zamkniętym. W pierwszej z nich złożono 35 wniosków, a nagroda główna trafiła do spółki Bioelektra Group za rozwiązanie wysoko efektywnej technologii odzysku surowców i materiałów do wtórnego użycia z odpadów komunalnych.
– Opracowana przez nas technologia polega na sterylizacji odpadów w autoklawach, a następnie automatycznej segregacji na linii sortowniczej – tłumaczy Damian Dytrych, dyrektor handlowy Bioelektra Group. – Odpady poddajemy wysokiej temperaturze, dochodzącej do 150°C, oraz wysokiemu ciśnieniu sięgającemu 5 barów. Proces trwa około 3 godz., a jednorazowo w takim autoklawie jest załadowanych ok. 3 t odpadów. Nad wszystkim czuwa sztuczna inteligencja, która dobiera parametry tak, żeby uzyskać takiej samej jakości frakcje o takich samych właściwościach, żeby cały proces był powtarzalny. Dzięki temu na koniec uzyskujemy odpady suche, ponieważ odparowuje z nich wilgoć. Odpady są też mniejszej objętości, bo pod wpływem ciśnienia ich objętość zmniejsza się do 60 proc. Później frakcja organiczna oddziela się od nieorganicznej, odpady nie wydzielają już też odorów, ponieważ eliminujemy z nich bakterie, wirusy czy pasożyty. Potem jest dość łatwy i bardzo efektywny proces sortowania suchych odpadów oddzielonych od organicznych i nieorganicznych i na koniec odzyskujemy biomasę, szkło, tworzywa sztuczne, metale i paliwa alternatywne.
Wyróżnienia w kategorii „Produkt wdrożony” przyznano 11 laureatom, wśród których są m.in. spółka Hydropolis (za eksperymentalną uprawę wertykalną wraz z systemem kontrolowanych warunków), Hochland Polska (opakowania wielokrotnego użytku), PGE Ekoserwis (mieszanka wypełniająca geoszyby stosowana w procesach rekultywacji terenów pogórniczych), Veolia Południe (wdrożenie i rozwój systemu GOZ w Miasteczku Śląskim oparte na cieple odpadowym z procesów hutniczych), spółka Rebread (cyrkularne pieczywo w modelu „open manufacturing”) oraz Przedsiębiorstwo Wielobranżowe ANMET Andrzej Adamcio wyróżnione za przęsło mostu wykonane z elementów łopat wirnika turbiny wiatrowej.
W drugiej z kategorii, „Wdrożony model gospodarki o obiegu zamkniętym”, zostały złożone 44 wnioski. Nagrodę główną otrzymała firma BASF Polska za zamykanie obiegu tworzyw sztucznych w procesie recyklingu chemicznego – współpracę w całym łańcuchu wartości.
– Dbamy o zamykanie obiegu tworzyw sztucznych, chociażby poprzez projekt ChemCycling, czyli proces recyklingu chemicznego, dzięki któremu możemy dać nowe życie tworzywom, zużytym oponom czy odpadom zmieszanym. Takie odpady są przetwarzane, dzięki czemu otrzymujemy surowiec, którego następnie możemy użyć do produkcji nowych tworzyw sztucznych, zamiast chociażby nafty w krakerze – mówi Rafał Zaremba, regionalny menedżer sprzedaży poliamidów i prekursorów w Europie Północno-Wschodniej w BASF Polska. – Rozwijamy recykling chemiczny jako komplementarny model recyklingu do mechanicznego. Dzięki temu jesteśmy w stanie zmniejszyć ilość odpadów, które mamy w środowisku, a także znacząco zredukować ślad węglowy powstałych produktów. Staramy się też angażować naszych dostawców, klientów, a także organy państwowe, aby szerzyć ideę gospodarki cyrkularnej.
W drugiej kategorii PARP ponownie wyróżnił 11 rozwiązań, a wśród nagrodzonych znalazły się m.in.: spółka STILO Marek Wąsowski (za projekt Figlisto – pierwszą w Polsce internetową wypożyczalnię zabawek dla dzieci działającą w modelu subskrypcyjnym), Drogerie DOT (za system dystrybucji środków czystości i kosmetyków w zamkniętym obiegu plastiku), Zero Waste Design (za przywracanie drugiego życia elementom wyposażenia wnętrz w branży przestrzeni biurowych), New Solutions Group (za metody pracy z tekstyliami z drugiego obiegu i przywracanie ich na rynek), Fakro (za wykorzystanie odpadów profili PVC w procesie recyklingu i ponowne ich zastosowanie jako profili PVC) oraz Lafarge Cement (za odzysk odpadów popłuczyn betonowych z betoniarni w celu ponownego użycia w Cementowni Małogoszcz).
Laureatom konkursu przyznano nagrody finansowe – nagrody główne w wysokości 50 tys. zł oraz wyróżnienia o wartości 20 tys. zł. Łączna pula nagród w konkursie wyniosła 540 tys. zł. Inicjatywa została zrealizowana w ramach projektu „Centrum analiz i pilotaży nowych instrumentów inno_LAB” finansowanego z Programu Operacyjnego Inteligentny Rozwój. Patronat nad konkursem objęło Ministerstwo Rozwoju i Technologii.

Na modernizację i rozwój sieci dystrybucyjnych energii potrzeba 130 mld zł do 2030 roku....
Hałdy kopalniane to ogromne magazyny z surowcami. Ich zagospodarowaniem są zainteresowani m.in. producenci cementu
Startuje Ciepłownia Przyszłości w Lidzbarku Warmińskim. Takie technologie może wykorzystywać cały sektor w Polsce
Na początku listopada w Lidzbarku Warmińskim zostanie uruchomiona Ciepłownia Przyszłości – demonstrator technologii, który ma w praktyce pokazać, jak może wyglądać w przyszłości nowoczesne i zdekarbonizowane ciepłownictwo. Realizacja projektu Euros Energy oraz Narodowego Centrum Badań i Rozwoju zajęła półtora roku i kosztowała 38 mln zł. Zastosowano w nim cały szereg technologii, które mają duży potencjał wykorzystania w tym sektorze, w tym m.in. pompy ciepła, trójstopniowy system magazynowania ciepła złożony m.in. z sezonowych magazynów ciepła typu PTES i BTES, hybrydowe kolektory słoneczne i innowacyjny system zarządzania. – Rynek jest bardzo zainteresowany takimi rozwiązaniami – mówi dr Kamil Kwiatkowski z Euros Energy. Tym bardziej że przed polskim ciepłownictwem stoi wyzwanie w postaci konieczności wypełnienia unijnych wymogów klimatycznych.
– Ciepłownia Przyszłości to jest innowacyjny, pilotażowy projekt demonstracji technologii dla ciepłownictwa. Technologii niemal zeroemisyjnej, bo udział energii ze źródeł odnawialnych przekracza w nim 90 proc. – mówi agencji Newseria Biznes dr Kamil Kwiatkowski, dyrektor ds. projektów badawczo-rozwojowych w Euros Energy.
W Polsce produkcja ciepła wciąż jest mocno uzależniona od węgla. W nadchodzących latach polskie ciepłownictwo czeka więc nieuchronny zwrot ku rozwiązaniom nisko- i zeroemisyjnym. Bez inwestycji w tym kierunku będzie bowiem ponosić coraz wyższe koszty paliw kopalnych i zanieczyszczenia środowiska, jak i konsekwencje związane z niewypełnieniem unijnych wymogów klimatycznych. To, jak w przyszłości może wyglądać ten sektor, pokazuje właśnie Demonstrator Technologii Ciepłowni Przyszłości Euros Energy HC Plant, który powstaje w Lidzbarku Warmińskim. To autorski projekt spółki, realizowany z Narodowym Centrum Badań i Rozwoju oraz Veolią. Ma w praktyce pokazać możliwości modernizacji systemów ciepłowniczych przy wykorzystaniu rozwiązań OZE.
– Nasza Ciepłownia Przyszłości, budowana w Lidzbarku Warmińskim, jest już bardzo zaawansowana. Będziemy gotowi do uruchomienia tej instalacji na początku listopada, czyli już za chwilę – zapowiada ekspert.
Inwestycja warta 38 mln zł jest realizowana z funduszy europejskich. Budowa demonstratora rozpoczęła się w połowie 2022 roku. Po uruchomieniu zapewni ciepło dla ok. 3,5 tys. mieszkańców Lidzbarka Warmińskiego i będzie ogrzewać budynki o łącznej powierzchni ponad 28 tys. mkw.
– To jest pełnoskalowy demonstrator, który integruje szereg technologii przyszłości, możliwych do zastosowania w ciepłownictwie, w tym m.in. pompy ciepła i sezonowe magazyny ciepła, jakich w Polsce jeszcze nie było, w szczególności tzw. PTES (Pit Thermal Energy Storage), czyli duży, izolowany basen wodny – wyjaśnia dr Kamil Kwiatkowski.
Sercem projektu jest zaawansowany układ pomp ciepła zintegrowanych z trójstopniowym systemem magazynowania ciepła: powietrznymi wymiennikami ciepła, z niskotemperaturowym magazynem gruntowym typu BTES oraz z wysokotemperaturowym magazynem wodnym typu PTES, składający się ze szczelnego, zaizolowanego basenu ziemnego o pojemności 15 tys. m3, wypełnionego w całości wodą. System jest zasilany energią elektryczną produkowaną bezpośrednio na miejscu, z hybrydowych kolektorów słonecznych PVT oraz z pobliskiej instalacji fotowoltaicznej.
– Latem możemy zasilać pompy ciepła energią elektryczną z fotowoltaiki i ładować energię do magazynów – podziemnego, gruntowego, czyli do pionowych odwiertów pokrywających całą działkę, oraz do magazynu wodnego, czyli wspomnianego magazynu PTES – mówi ekspert Euros Energy. – Unikalne jest to, że całość energii wyprodukowanej w tej farmie fotowoltaicznej jest autokonsumowana w Ciepłowni Przyszłości. To jest zupełnie nowe, stabilne i bezpieczne dla sieci elektroenergetycznych zastosowanie farm fotowoltaicznych. Oprócz tego mamy jeszcze specjalną technologię, czyli hybrydowe kolektory słoneczne. To jest instalacja kolektorów połączonych z panelami fotowoltaicznymi, które jednocześnie produkują energię elektryczną i ciepło. Jest to niezbędne, ponieważ mamy bardzo ograniczoną powierzchnię.
W zimowe noce system jest wspierany energią elektryczną dostarczaną z krajowej sieci elektroenergetycznej, w tym energią zakupioną z gwarancją pochodzenia z odnawialnych źródeł energii w ramach kontraktów typu Power Purchase Agreement (PPA). Całością sterują natomiast zaawansowane algorytmy zarządzania energią, które dbają o jej efektywne zagospodarowanie.
– To jest w pewnym stopniu rozwiązanie wyjątkowe w skali europejskiej, ponieważ mamy tutaj warstwowe ułożenie magazynowania – mamy warstwę podziemną, na to warstwę magazynu wodnego i oczywiście na ziemi mamy też hybrydowe kolektory typu PVT (Photovoltaic Thermal). W efekcie tym, co jest unikalne, to ogromna jak na OZE gęstość energii. Dzięki temu taki projekt mógł się zmieścić na 1 ha i mógł być wybudowany raptem w półtora roku, co jak na projekty ciepłownicze jest niesamowicie krótkim czasem – mówi dr Kamil Kwiatkowski.
Według raportu ośrodka analitycznego Polityka Insight („Ciepło do zmiany. Jak zmodernizować sektor ciepłownictwa systemowego w Polsce”) Polska ma drugi, po Niemczech, największy rynek ciepła systemowego w Europie. Do sieci ciepłowniczej jest przyłączonych ponad 40 proc. spośród 13,5 mln gospodarstw domowych i jest to jeden z najwyższych wskaźników w UE. Jednocześnie w polskich systemach ciepłowniczych zainstalowano łącznie 53,5 GW mocy i żaden inny unijny kraj nie dysponuje taką flotą wytwórczą. Polskie ciepłownictwo to potężny sektor, który ma istotny wpływ nie tylko na środowisko i klimat, ale również na bilans paliwowy kraju oraz bezpieczeństwo energetyczne. Skala potrzeb inwestycyjnych związanych z modernizacją i dekarbonizacją polskiego ciepłownictwa jest ogromna – Forum Energii szacuje ją nawet na 52,7 mld zł średniorocznie do 2050 roku (raport „Czyste ciepło jako motor polskiej gospodarki”). Z kolei Polityka Insight oszacowała, że potrzeby inwestycyjne ciepłownictwa systemowego wynoszą co najmniej 70 mld zł w perspektywie 2030 roku.
– Potencjał rozwiązań zastosowanych w Ciepłowni Przyszłości jest ogromny. Sama ciepłownia jest projektem demonstracyjnym, który ma pokazać, że te wszystkie puzzle transformacji energetycznej działają i są możliwe do wdrożenia – mówi ekspert Euros Energy. – Rynek jest bardzo zainteresowany takimi rozwiązaniami, m.in. magazynowaniem energii i pompami ciepła. Oczywiście to zainteresowanie zależy przede wszystkim od cen gazu ziemnego – kiedy ta cena była niewysoka, to zainteresowanie było znacznie mniejsze. Jednak po wybuchu wojny w Ukrainie, kiedy ceny gazu wzrosły, mamy w tej chwili zwiększone zainteresowanie naszym projektem.
Fusy z kawy zamiast piasku. Taki komponent może wzmocnić beton z korzyścią dla środowiska
Inżynierowie z Royal Melbourne Institute of Technology w Australii opracowali metodę produkcji betonu przy użyciu fusów z kawy. Przekonują, że recykling odpadów organicznych może zmniejszyć zależność branży budowlanej od wydobywania zasobów naturalnych. Fusy z kawy pozwalają wyprodukować o 30 proc. mocniejszy beton i częściowo zastąpić nimi piasek.
Autorzy badania oszacowali, że co roku powstaje ok. 10 mld kg odpadów kawowych, z czego 75 mln kg w samej tylko Australii. Dzięki ponownemu wykorzystaniu fusów branża budowlana może się przyczynić do zmniejszenia emisji metanu, które gorzej wpływają na atmosferę niż dwutlenek węgla.
– Pracujemy nad recyklingiem różnych form odpadów organicznych. Ogromna ilość takich odpadów trafia na wysypiska. W Australii są one odpowiedzialne za około 3 proc. emisji gazów cieplarnianych. Rozmawiając przy kawie, poszukiwaliśmy różnych rozwiązań na przekształcenie odpadów w cenny zasób i właśnie wtedy pomyśleliśmy o fusach powstających przy przyrządzeniu tego napoju. Od tego zaczęło się nasze badanie – mówi agencji Newseria Innowacje współautor rozwiązania, dr Rajeev Roychand z Uniwersytetu RMIT w Australii.
Naukowcy przetworzyli fusy w biowęgiel – czarny, porowaty materiał bogaty w węgiel, który pozwala wzmocnić beton o 30 proc. i w 15 proc. objętości zastąpić piasek. Wykorzystali do tego proces pirolizy, próbując różnych poziomów temperatury. Okazało się, że najlepsze efekty dało podgrzanie fusów z kawy do 350 stopni Celsjusza bez użycia tlenu.
– Znacząco podnosimy w ten sposób wytrzymałość betonu i sprawiamy, że jego produkcja staje się bardziej przyjazna dla środowiska. Modyfikowane, przetworzone termicznie fusy z kawy mogą częściowo zastąpić piasek, który trzeba ciągle wydobywać, by spełnić wymogi branży budowlanej. Uzyskujemy przy tym o 30 proc. lepszą wytrzymałość betonu. Ten istotny wzrost wytrzymałości można wykorzystać do obniżenia zawartości cementu nawet o 10 proc. – wyjaśnia dr Rajeev Roychand.
Odkrycie może też pomóc w ochronie zasobów naturalnych, konkretnie piasku. Według obliczeń badaczy z Uniwersytetu w Lejdzie spośród wszystkich materiałów stałych eksploatowanych przez człowieka najszybciej rośnie wydobycie piasku i żwiru, a najwięcej tego pierwszego surowca zużywa się właśnie do produkcji betonu. W ciągu najbliższych 40 lat popyt na piasek może wzrosnąć o ok. 45 proc. W 2060 roku branża budowlana będzie potrzebowała 4,6 mld t rocznie (dla porównania w 2020 roku było to 3,2 mld t), zwłaszcza w Azji i Afryce.
Zrównoważone wydobycie piasku stanowi duże wyzwanie dla branży budowlanej. Surowiec używany do produkcji betonu wydobywa się z koryt rzek i jezior. Ten morski i pustynny się do tego nie nadaje. Nielegalne wydobycie piasku jest ogromnym problemem na całym świecie, przyczyniając się do nadmiernej eksploatacji i degradacji środowiska. Jest on wprawdzie surowcem odnawialnym, ale procesy erozji, w wyniku których powstaje, trwają długo. Przyroda nie jest w stanie odtworzyć jego zasobów tak szybko, żeby sprostać jego eksploatacji przez przemysł. Dlatego na znaczeniu zyskują rozwiązania, które mają pomóc w ograniczeniu zużycia tego surowca w branży budowlanej.
Australijscy badacze są zdania, że ich rozwiązanie ma dużą szansę na komercjalizację. Informują, że nawiązali już współpracę z kilkoma firmami budowlanymi. Rozwiązaniem są zainteresowani również lokalni włodarze.
– Pierwszy samorząd chce wykorzystać nasze rozwiązanie przy budowie chodnika. Trwają obecnie liczne konsultacje z firmami budowlanymi. Poza tym spotkaliśmy się z przedstawicielami kilku firm budowlanych, którzy są bardzo entuzjastycznie nastawieni i chcą zastosować nasz beton w przyszłych inwestycjach. Spotkaliśmy się też z architektem, który projektuje luksusowy hotel i chce skorzystać z naszego produktu, by zapewnić wysokie parametry w zakresie zrównoważonego rozwoju i obniżyć emisje. Trwają więc liczne konsultacje, również z podmiotami zagranicznymi. Wiele przedsiębiorstw z zagranicy interesuje się naszym rozwiązaniem, wiele projektów jest już w fazie finalizacji i zostanie ukończonych przed końcem roku lub na początku następnego – zapowiada badacz z Uniwersytetu RMIT.
Inżynierowie z Australii zapowiadają, że będą pracować nad możliwością użycia innych niż kawa surowców organicznych do poprawy właściwości betonu. Niedawno nad wykorzystaniem recyklingu w budownictwie pochylili się też naukowcy z Uniwersytetu Kitakyushu w Japonii. Odkryli, że do produkcji betonu można wykorzystać odpady z jednorazowych pieluch. Można nimi zastąpić od 9 do 40 proc. piasku, w zależności od tego, w jakim elemencie się znajdą, bez zmniejszenia wytrzymałości betonu. Naukowcy zbudowali eksperymentalny dom o powierzchni 36 mkw., według indonezyjskich standardów budowlanych, bo to z myślą o problemach w mieszkalnictwie na tym rynku realizowali ten projekt. W sumie zużyto 1,7 m3 odpadów pieluszkowych.
W Polsce brakuje już kilkunastu tysięcy specjalistów od cyberbezpieczeństwa. Zapotrzebowanie na ich kompetencje będzie...
Kompetencje związane z cyberbezpieczeństwem to obecnie najbardziej poszukiwane umiejętności technologiczne, zwłaszcza w regionie Europy Środkowo-Wschodniej, a luka kompetencyjna w tym obszarze dodatkowo się nasiliła po agresji Rosji na Ukrainę – wynika z raportu opublikowanego przez Polską Izbę Informatyki i Telekomunikacji. Wynika z niego, że w Polsce już w tej chwili brakuje ponad 10 tys. specjalistów z zakresu cyberbezpieczeństwa. A w najbliższym czasie zapotrzebowanie na nich będzie gwałtownie rosnąć m.in. w związku z wdrożeniem dyrektywy NIS2. Znacząco rośnie też popyt na kompetencje związane ze sztuczną inteligencją, 5G, internetem rzeczy czy analityką danych. Brak specjalistów w tych dziedzinach ogranicza zdolność firm do rozwoju i wdrażania innowacji, dlatego eksperci wskazują na pilną potrzebę niwelowania luk kompetencyjnych.
– Mówiąc o kadrach z branży teleinformatyki i telekomunikacji, możemy się pochwalić poziomem kształcenia, który jest w Polsce realizowany. Swoje centra badawcze i rozwojowe w Polsce założyły największe światowe korporacje, jak chociażby Samsung, Ericsson czy Nokia, a oprogramowanie i najnowsze technologie związane z 5G powstają właśnie w Polsce, oczywiście w ramach międzynarodowej współpracy. Polska kadra R&D współpracuje m.in. ze Stanami Zjednoczonymi i Azją, jednak kiedy porównujemy naszych inżynierów z inżynierami w innych regionach geograficznych, to widzimy, że ich kompetencje, jeśli nie są wyższe, to przynajmniej są równe, na najwyższym światowym poziomie. Tym, co nas wyróżnia i dlaczego jesteśmy konkurencyjni w porównaniu na przykład ze Stanami, jest ciągle koszt pracownika. Natomiast tu nie chodzi o to, żeby było drożej albo taniej, tu chodzi o efektywność – mówi agencji Newseria Biznes dr inż. Andrzej Dulka, prezes Polskiej Izby Informatyki i Telekomunikacji.
Według opublikowanego przez Komisję Europejską indeksu gospodarki cyfrowej i społeczeństwa cyfrowego (DESI Index 2022) w zakresie integracji technologii cyfrowych Polska wciąż zajmuje dopiero 24. miejsce wśród państw UE. Dlatego najważniejszym wyzwaniem na kolejne lata będzie nowoczesny rozwój cyfrowej gospodarki oparty na innowacyjnych technologiach z zakresu sztucznej inteligencji, cyberbezpieczeństwa, internetu rzeczy, chmury obliczeniowej czy ekosystemu 5G, które mogą stanowić nowy motor wzrostu gospodarczego. Wymaga to jednak dostępności wykształconych kadr. Tymczasem w Polsce – mimo wysokich kompetencji – wciąż jest ich za mało.
Jak pokazuje raport opublikowany przez Polską Izbę Informatyki i Telekomunikacji (PIIT), zatrudnianie doświadczonych specjalistów technologicznych i utrzymanie aktualnych pul kompetencji w organizacjach stanowiło w 2022 roku poważne wyzwanie zarówno dla dostawców, jak i odbiorców technologii. Z powodu braku odpowiednich kompetencji technologicznych projekty cyfrowej transformacji w europejskich organizacjach były opóźnione średnio o ponad osiem miesięcy. Według badań IDC aż 53 proc. organizacji w Europie i 33 proc. w Polsce miało w ubiegłym roku problem z obsadzeniem wolnych stanowisk technologicznych. Najbardziej poszukiwane obecnie kompetencje technologiczne, zwłaszcza w regionie Europy Środkowo-Wschodniej (CEE), są związane z obszarem cyberbezpieczeństwa.
– Niedobór kompetencji w zakresie cyberbezpieczeństwa grozi problemami w eksploatacji systemów informatycznych. Jeżeli nie zapewnimy odpowiedniego poziomu cyberbezpieczeństwa tych systemów, to ryzyko prowadzenia działalności gospodarczej czy świadczenia usług publicznych będzie zdecydowanie nieakceptowalne. Firmy mogą stracić wszystkie swoje dane, od których zależy ich przyszłość biznesowa – mówi Wiesław Paluszyński, prezes Polskiego Towarzystwa Informatycznego, przewodniczący Sektorowej Rady ds. Kompetencji Telekomunikacja i Cyberbezpieczeństwo.
Jak wynika z raportu PIIT, w Polsce niedobór wszystkich ekspertów IT sięga 50 tys., a wśród nich nawet 20 proc. mogą stanowić osoby zajmujące się cyberbezpieczeństwem.
– Cyberbezpieczeństwo wymaga horyzontalnych umiejętności. Do tego, żeby móc funkcjonować w tym obszarze, trzeba mieć umiejętności poznawcze, miękkie, jak i kompetencje techniczne, żeby umieć rozpoznać zagrożenia od strony technologicznej – mówi Wiesław Paluszyński. – W tej chwili na części polskich uczelni na studiach podyplomowych kształci się specjalistów w zakresie cyberbezpieczeństwa, ale to jest kropla w morzu potrzeb. W tym roku, kiedy do polskiego prawa wejdzie dyrektywa NIS2, to zapotrzebowanie na specjalistów w zakresie cyberbezpieczeństwa wzrośnie w postępie geometrycznym. Tu mamy kompetencyjnie ogromne wyzwanie.
Dyrektywa w sprawie środków na rzecz wysokiego wspólnego poziomu cyberbezpieczeństwa w całej Unii Europejskiej, czyli NIS2, to jedna z najważniejszych regulacji, która zacznie wkrótce obowiązywać na poziomie europejskim i krajowym. Szacuje się, że w związku z jej implementacją w Polsce kilka tysięcy firm zostanie objętych nowymi obowiązkami. Poza tym powstają też nowe regulacje w zakresie odporności cyfrowej kierowane do konkretnych sektorów. Przykładem jest rozporządzenie w sprawie operacyjnej odporności cyfrowej sektora finansowego (DORA), które ma wyznaczyć europejski standard dla sektora finansowego w zakresie cyfrowej odporności.
Te nowe regulacje oznaczają, że – oprócz oprogramowania i sprzętu – polskie organizacje będą w najbliższym czasie potrzebować kompleksowych usług bezpieczeństwa, które zagwarantują ciągłość ich działalności i zgodność z przepisami UE. Firma doradcza IDC prognozuje, że średnioroczne tempo wzrostu (CAGR) polskiego rynku usług cyberbezpieczeństwa będzie w latach 2023–2027 na poziomie 12,5 proc.
– Zwiększenie liczby specjalistów w obszarze cyberbezpieczeństwa jest trudnym zagadnieniem, ponieważ ta dziedzina bardzo szybko się rozwija, następują szybkie zmiany technologiczne, za którymi trudno na bieżąco nadążyć. Dlatego działamy na rzecz tego, aby szkoły i uczelnie nawiązywały współpracę z biznesem, żeby jak najlepiej przygotować absolwentów – zarówno szkół branżowych, jak i uczelni – do wejścia na ten rynek pracy – mówi Beata Ostrowska, wiceprzewodnicząca Sektorowej Rady ds. Kompetencji Telekomunikacja i Cyberbezpieczeństwo.
Eksperci wskazują także na luki kompetencyjne w sferze sztucznej inteligencji. To technologia, która wpływa na biznes z niemal każdej branży i w której wielu menedżerów upatruje szansy m.in. na automatyzację procesów, możliwości wdrożenia nowych modeli biznesowych i zbudowanie przewagi konkurencyjnej. Wciąż jednak niewielu pracowników ma niezbędne umiejętności do wdrażania i pracy z takimi systemami. Pomimo wielu inicjatyw mających na celu poprawę kształcenia wciąż odczuwalny jest brak specjalistów, który ogranicza zdolność firm do inwestowania w tę technologię.
– Tutaj potrzebne są kompetencje w zakresie zapewnienia jakości danych, które później nauczą tę sztuczną inteligencję zachowań, które są dla nas pożądane. A jeżeli zrobimy to źle, te zachowania będą niepożądane i wtedy będziemy mieć problem. I to pokazuje, że luka kompetencyjna w obszarze sztucznej inteligencji jest dość istotna – mówi Wiesław Paluszyński.
Z przeprowadzonego na początku roku badania „Wpływ trendów rozwojowych nowych technologii na potrzeby kompetencyjne sektora IT” Sektorowej Rady ds. Kompetencji – Informatyka i firmy Antal wynika, że zdaniem 85 proc. respondentów (przedstawicieli firm informatycznych i działów IT firm nieinformatycznych) w związku z rozwojem sztucznej inteligencji w dużej mierze potrzebne będą nowe kompetencje. Badani menedżerowie najczęściej wskazywali machine learning (68 proc.), Python (61 proc.) oraz doświadczenie w pracy z bibliotekami data science i sztucznej inteligencji (56 proc.). Jednocześnie 65 proc. badanych ogółem (w tym 80 proc. menedżerów z sektora IT) oceniło, że dotychczas cenione na rynku kompetencje nie stracą na znaczeniu, a zmieni się jedynie zakres ich stosowania. Jako kwalifikacje, które mogą stracić na znaczeniu, najczęściej wskazywano utrzymanie i prowadzenie dokumentacji (22 proc.) oraz kompetencje w zakresie pracy w środowiskach programistycznych (19 proc.).
– To jest obszar, którego nie uczyliśmy absolwentów na studiach, tę wiedzę trzeba nabyć w bieżącym działaniu. I to jest dziś problem – nie tylko, żeby samemu chcieć się tego nauczyć, ale i znaleźć nauczycieli, którzy będą potrafili odpowiednio przekazać te kompetencje – ocenia prezes PTI.
– Powinniśmy zacząć się skupiać na kompetencjach cyfrowych, a w edukacji powinny się pojawić chociażby elementy związane ze sztuczną inteligencją czy uczeniem maszynowym, aby młodzi nie zostawali w tyle – mówi dr Dawid Dymkowski, ekspert Instytutu Badań Edukacyjnych.
– Jeśli chodzi o programy nauczania w szkołach branżowych i na uczelniach, to wyzwaniem jest przede wszystkim to, że im trudno jest wprowadzać zmiany na bieżąco. Szkoły mogą to robić tylko poprzez współpracę z firmami technologicznymi, które – organizując dodatkowe zajęcia – mogą wtedy wprowadzać nowinki technologiczne do programu nauczania i dzięki temu uczniowie i studenci mają dostęp do najnowszych rozwiązań – dodaje Beata Ostrowska.
Eksperci wskazują, że bez długoterminowych i wielowymiarowych rozwiązań problem luki kompetencyjnej będzie się pogłębiać. Dlatego firmy technologiczne powinny współpracować z rządem, uniwersytetami i organizacjami komercyjnymi w celu tworzenia programów, które umożliwią realizowanie działań edukacyjnych pozwalających na stałe podnoszenie odpowiednich kompetencji, a także przyciąganie nowych pracowników do branży IT.
– Wiele rzeczy się dzieje, mamy dużo dobrych przykładów. Uczelnie pytają, jakich specjalistów biznes potrzebuje, jakie kompetencje są potrzebne. Z drugiej strony biznes – w ramach różnych inicjatyw organizowanych we współpracy z uniwersytetami i politechnikami – spotyka się ze studentami i mówi, czego oczekuje, co dobrze wiedzieć w pierwszych dniach po wejściu do firmy, jakie kompetencje są potrzebne, jak się zaangażować w działania firmy. Biznes bardzo wysoko ocenia tę współpracę, podobnie jak naszą kadrę inżynierską, bo w zasadzie wielu z tych studentów już w czasie studiów zaczyna pracować w biznesie – mówi dr inż. Andrzej Dulka.
Jak zauważa ekspert Instytutu Badań Edukacyjnych, dużą rolę w koordynowaniu tej współpracy między nauką i biznesem oraz wypełnianiu luki kompetencyjnej w branży technologicznej i telekomunikacyjnej odgrywa Sektorowa Rada ds. Kompetencji Telekomunikacja i Cyberbezpieczeństwo.
– Sektorowe Rady Kompetencji pełnią istotną rolę w kontekście kształtowania kompetencji, które są istotne dla przedsiębiorców na rynku pracy. Współpracują z biznesem, definiują te kompetencje, które na ten moment są najbardziej istotne, i starają się współpracować z edukacją w taki sposób, aby potencjalni przyszli pracownicy posiadali umiejętności, które odpowiedzą na potrzeby tego rynku – mówi dr Dawid Dymkowski.
O wyzwaniach związanych z luką kompetencyjną oraz roli współpracy między nauką i biznesem w tym obszarze rozmawiali eksperci podczas VIII Forum Współpracy Edukacji i Biznesu – EDUMIXER. Konferencja, organizowana przez Polską Izbę Informatyki i Telekomunikacji we współpracy z Polskim Towarzystwem Informatycznym w ramach Sektorowej Rady ds. Kompetencji Telekomunikacja i Cyberbezpieczeństwo, odbyła się 30 października w Centrum Prasowym Newseria.
Walka ze smogiem zaczyna przynosić efekty. Jakość powietrza w Polsce powoli się poprawia
Nowa Ruda po raz kolejny została „smogowym” rekordzistą, a w ścisłej czołówce tegorocznego rankingu tradycyjnie uplasowało się kilka miejscowości z Małopolski. Nawet w uzdrowiskach – takich jak Szczawnica, Szczawno-Zdrój, Rabka-Zdrój i Jedlina-Zdrój – normy rakotwórczego benzo[a]pirenu były w ubiegłym roku przekroczone od trzech do sześciu razy – pokazuje najnowsza edycja rankingu publikowanego przez Polski Alarm Antysmogowy. Wynika z niego jednak, że walka ze smogiem powoli zaczyna przynosić efekty, a powietrze w Polsce stopniowo się poprawia. – Po raz pierwszy, odkąd sporządzamy te raporty, we wszystkich miejscowościach średnioroczne stężenie pyłów PM10 było w normie – mówi Piotr Siergiej, rzecznik PAS.
Polski Alarm Antysmogowy, na podstawie danych Głównego Inspektoratu Ochrony Środowiska za 2022 rok, po raz kolejny opublikował właśnie ranking polskich miast i miejscowości z najbardziej zanieczyszczonym powietrzem. Na jego czele już drugi rok z rzędu uplasowała się Nowa Ruda, która została smogowym „zwycięzcą” we wszystkich trzech analizowanych kategoriach. To właśnie tam odnotowano w 2022 roku najwięcej dni smogowych (95 dni), najwyższe stężenie pyłów PM10 oraz najwyższe stężenie rakotwórczego benzo[a]pirenu wynoszące 9 ng/m3, czyli aż 900 proc. dopuszczalnej normy.
– Smogowi rekordziści na naszej liście to są bardzo różne miejscowości, o różnych typach zabudowy. Akurat w Nowej Rudzie, która okazała się najbardziej zanieczyszczona, jest dużo kamienic i zabytkowych budynków. To jest miasto, gdzie dominuje stara zabudowa. Dlatego wciąż jest tam sporo kotłów i jest problem z ich wymianą, choćby z tego powodu, że prawdopodobnie trzeba byłoby dociągnąć do tych kamienic sieć gazową czy ciepłowniczą, żeby można było te kotły polikwidować – mówi agencji Newseria Biznes Piotr Siergiej. – Mamy też w rankingu miasta takie jak Nowy Targ, Sucha Beskidzka i tam są domy jednorodzinne, które ogrzewa się w dużej mierze węglem. Na Podhalu, w Małopolsce, generalnie na południu kraju jest wiele podobnych miejscowości.
Nowy Targ i Sucha Beskidzka to miasta, które w tym roku również uplasowały się w ścisłej czołówce smogowych rekordzistów – w obu przypadkach średnioroczne stężenie rakotwórczego benzo[a]pirenu zostało przekroczone siedmiokrotnie. Tak samo jak w Nowym Mieście Lubawskim, które – po zainstalowaniu tam stacji pomiarowej – w tym roku pojawiło się w rankingu po raz pierwszy. Dalej znalazły się również Nowy Sącz, Szczawnica, Wadowice, Rybnik, Godów i Żywiec – we wszystkich tych miejscowościach średnioroczne stężenie benzo[a]pirenu zostało przekroczone sześciokrotnie. Natomiast jeśli chodzi o najwyższe, średnioroczne stężenie pyłów zawieszonych PM10, rekordzistami okazały się kolejno Nowa Ruda, Pszczyna, Sucha Beskidzka, Nowy Targ, Radomsko, Nowy Sącz, Zdzieszowice, Wodzisław Śląski i Nowe Miasto Lubawskie. Istotne jest jednak to, że w żadnej z tych miejscowości średnioroczne stężenie pyłów PM10 nie przekroczyło dopuszczalnej normy.
– Po raz pierwszy, odkąd sporządzamy te raporty, czyli od 2015 roku, we wszystkich miejscowościach objętych monitoringiem GIOŚ średnioroczne stężenie pyłów PM10 było w normie. Innymi słowy, mieliśmy po prostu czystsze powietrze – mówi rzecznik Polskiego Alarmu Smogowego.
Tegoroczna edycja rankingu pokazuje, że walka ze smogiem zaczyna przynosić efekty, a powietrze w Polsce zaczyna się powoli poprawiać. Widać to także na przykładzie smogowych rekordzistów: nawet w najbardziej zanieczyszczonej Nowej Rudzie w ciągu ostatnich dziewięciu lat (pomiędzy 2013 i 2022 rokiem) średnioroczne stężenie rakotwórczego benzo(a)pirenu zmalało o 47 proc., a średnioroczne stężenie PM10 spadło o jedną piątą.
– Idziemy w dobrą stronę. W najmocniej zanieczyszczonych miejscowościach, jak choćby Nakło nad Notecią, liczba dni smogowych spadła aż pięciokrotnie, w miejscowościach takich jak Rybnik czy Kraków stężenia pyłów zawieszonych spadły aż o 40 proc. To są zmiany w jakości powietrza, które już zaczynamy dostrzegać – mówi Piotr Siergiej.
Jak wskazuje, są one m.in. efektem przyjmowanych w województwach uchwał antysmogowych i likwidacji przestarzałych kotłów na paliwo stałe, czyli tzw. kopciuchów.
– W ciągu tych kilku lat, od kiedy publikujemy nasz ranking, w Polsce zniknęło ok. 800 tys., może nawet milion kopciuchów. Zeszliśmy z ok. 4 mln do 3 mln tych kotłów. W skali kraju to wciąż jest dużo, ale jednak ich liczba spadła o mniej więcej milion sztuk i to musiało się przełożyć na poprawę jakości powietrza – mówi ekspert. – Drugim czynnikiem, którego nie można pominąć, jest również kryzys klimatyczny. W tej chwili jesień i zima wyglądają inaczej niż jeszcze 10 czy 20 lat temu, nie mówiąc już kilkadziesiąt lat wstecz, bo klimat nam się przesuwa. Mamy cieplejsze zimy, bardziej wietrzne. Przypomnę, że w styczniu, w Nowy Rok w Warszawie mieliśmy 18 stopni Celsjusza. Teraz mamy listopad i dawniej dni w tym okresie były mroźne, a teraz mamy temperatury po kilka–kilkanaście stopni na plusie, co już nawet przestało wydawać nam się dziwne. Siłą rzeczy jakość powietrza również z tego powodu musiała zacząć się poprawiać.
Rzecznik Polskiego Alarmu Smogowego podkreśla jednak, że pomimo widocznej poprawy wciąż pozostaje dużo do zrobienia w kwestii jakości powietrza w Polsce. Liczba dni smogowych w najbardziej zanieczyszczonych miejscowościach to nadal od dwóch do trzech miesięcy w roku. Nawet w uzdrowiskach – takich jak Szczawnica, Szczawno-Zdrój, Rabka-Zdrój i Jedlina-Zdrój – normy rakotwórczego benzo[a]pirenu są przekroczone od trzech do sześciu razy.
– Receptą dla tych wszystkich miejscowości jest po prostu likwidacja kopciuchów na węgiel i drewno, tak jak to zrobiono w Krakowie. Tam zniknęło prawie 40 tys. kotłów i mieszkańcy Krakowa cieszą się w tej chwili dużo czystszym powietrzem – mówi Piotr Siergiej. – W 14 województwach w kraju mamy już uchwały antysmogowe, czyli rozwiązania prawne, które przymuszają mieszkańców do wymiany kotłów, wyznaczają graniczną datę dla ich funkcjonowania. Mamy również gminne, miejskie programy dotacyjne do wymiany kopciuchów, które działają m.in. w Warszawie, Otwocku, Poznaniu czy we Wrocławiu, a ponadto program Czyste Powietrze, który dofinansowuje ocieplenie domu i wymianę kotła. Tak więc system prawny właściwie jest już ukształtowany i teraz chodzi o to, żeby egzekwować te rozwiązania, ponieważ z tym mamy niestety duży problem. Korzystanie z tych kopciuchów i palenie zakazanymi paliwami wciąż pozostaje w dużej mierze bezkarne.
Tegoroczny ranking Polskiego Alarmu Smogowego pokazuje, że regulacje antysmogowe mają bardzo duże przełożenie na jakość powietrza. Potwierdza to przykład Małopolski i duża liczba miejscowości z tego regionu, które znalazły się w zestawieniu (aż pięć miejscowości na 15 o najwyższym stężeniu benzo[a]pirenu). To właśnie w tym województwie – na skutek decyzji Sejmiku Województwa – zezwolono bowiem na wydłużone użytkowanie kopciuchów, czyli kotłów najbardziej zanieczyszczających powietrze.
– Jestem przekonany, że Polska upora się z wymianą kopciuchów, choć trudno przewidzieć, kiedy to nastąpi. Datą graniczną jest w teorii 2028 rok, czyli koniec programu dotacyjnego Czyste Powietrze. To znaczy, że pieniądze z tego programu będą dostępne jeszcze przez pięć lat i liczymy, że on przyspieszy, że pojawią się pieniądze z Krajowego Programu Odbudowy na termomodernizację budynków – ocenia rzecznik PAS. – Do tej pory zlikwidowaliśmy około miliona kopciuchów, ale powinniśmy być już co najmniej blisko liczby 1,5–2 mln, więc tempo jest zdecydowanie zbyt wolne, z pewnymi wyjątkami jak właśnie Kraków czy Rybnik, który pod względem liczby wymienionych kotłów i wniosków składanych w programach dotacyjnych jest rekordowy w skali kraju.
Producenci elektroniki poprawiają parametry swoich produktów. Mają być wygodne, energooszczędne i z korzyścią dla...
Panasonic, jeden z czołowych producentów elektroniki, zaprezentował niedawno swoją wizję Całościowego Dobrobytu, w której centrum znajduje się użytkownik i planeta. W ramach czterech wymiarów nowej strategii – dobrobytu przestrzennego, zewnętrznego, wewnętrznego i społecznego – tak dostosowuje swoje produkty, by były bardziej energooszczędne i prośrodowiskowe, ale też wygodne i przyjazne dla użytkownika. Jednym z podstawowych założeń nowego podejścia firmy do projektowania urządzeń jest to, by pozytywnie wpływać na zdrowie i samopoczucie użytkowników. Dotyczy to zarówno sprzętów RTV, jak i urządzeń do higieny osobistej, gotowania czy pielęgnacji zwierząt.
– Staramy się dostarczać naszym klientom bardzo szeroki wachlarz produktów do użytku domowego, który ma dbać o zdrowie użytkowników – mówi agencji Newseria Innowacje Jędrzej Ziółkowski, menedżer ds. marketingu na Europę Środkowo-Wschodnią w Panasonic Polska.
Jak podkreślali podczas prezentacji korporacyjnej wizji Całościowego Dobrobytu (Holistic Wellbeing) przedstawiciele firmy, celem jest zrównoważenie indywidualnego dobrostanu użytkowników z globalnym, zrównoważonym rozwojem. Temu mają służyć stałe prace nad redukcją emisji CO2 oraz gospodarką obiegu zamkniętego, czyli m.in. wydłużaniem cyklu życia produktów. Temu ma służyć stosowanie modułowych konstrukcji ułatwiających naprawę czy integracja IoT, która pozwoli przewidywać usterki. Wśród planów Panasonica jest także rozwijanie możliwości renowacji sprzętu oraz modeli subskrypcji.
Wizja Holistic Wellbeing to cztery przestrzenie i przypisane do niej sprzęty: dobrobyt przestrzenny (telewizja i domowa rozrywka), dobrobyt zewnętrzny (higiena osobista), dobrobyt wewnętrzny (drobne sprzęty kuchenne) i dobrobyt społeczny (obrazowanie cyfrowe i pielęgnacja zwierząt).
Jędrzej Ziółkowski na przykładzie poszczególnych kategorii wyjaśnia sposób rozumienia dobrostanu przez projektantów.
– Mogę powiedzieć o suszarkach z technologią Nanoe, że jest to nasza autorska technologia, która charakteryzuje się tym, że podczas suszenia włosów nie wysusza skóry, a jednocześnie włosy stają się mocniejsze i w przypadku farbowanych włosów nie tracą koloru – mówi menedżer ds. marketingu w Panasonic Polska. – Staramy się męskiej części konsumentów dostarczać produkt jak golarki czy trymery, dzięki którym, tak jak Multishape, mogą podróżować z jednym tylko urządzeniem po całym świecie i wymieniać końcówki. Dzięki temu mogą mieć golarkę, trymer, a nawet szczoteczkę do zębów w jednym, żeby ograniczyć liczbę urządzeń w walizce i przez to też zmniejszyć wagę bagażu, co w dzisiejszych czasach jest bardzo istotne.
Multishape to wielofunkcyjne urządzenie wyposażone w jeden akumulator i jeden przewód ładujący. Może zastąpić do pięciu pojedynczych urządzeń. Dzięki zastosowaniu zasady modułowej udało się zminimalizować zużycie materiałów, a co za tym idzie znacznie zredukować późniejszą ilość odpadów. Urządzenie może być dostępne z akumulatorem litowo-jonowym (pozwalającym na 90 minut pracy i szybkie ładowanie) lub niklowo-wodorkowym (do 50 minut pracy). Podobną funkcjonalność zapewnia też seria depilatorów EY. Te produkty wpisują się w kategorię dobrobytu zewnętrznego.
Z kolei w kategorię dobrobytu społecznego wpisane są m.in. propozycje dla seniorów, na przykład wygodne do używania przez nich telefony komórkowe.
– Staramy się też pamiętać o naszych rodzicach i dziadkach i dla nich też utrzymujemy produkcję telefonów, dzięki którym w dzisiejszych czasach mogą się łatwiej z nami komunikować, nawet w smart czasach – podkreśla ekspert. – Nie zapominamy też o naszych pupilach. Dla nas zwierzęta też są ważne, toteż wprowadziliśmy teraz nowe linie produktów dla zwierząt, czyli automatyczne dozowniki do karmy czy fontanny do pojenia wodą.
W ramach dobrobytu wewnętrznego z kolei Panasonic skupia się na zdrowszym, prostszym, ale i bardziej zrównoważonym sposobie gotowania.
– W dzisiejszych czasach ludzie sobie cenią takie nowinki. Wypiekacze chleba, niby nic nowego, aczkolwiek zawsze można coś udoskonalić, zrobić lepiej, poprawić i są to produkty najwyższej jakości, a pieczywo stamtąd jest bardzo dobre. Dodatkowo nasze mikrofalówki, które charakteryzują się też tym, że zużywają znacznie mniej energii od konkurencji – mówi Jędrzej Ziółkowski.
Parowe kuchenki łączą w sobie cztery metody gotowania i urządzenia: parę, piekarnik, grill i inwerterową kuchenkę mikrofalową. Producent proponuje też nowe modele frytownic powietrznych, które dają więcej możliwości przygotowania beztłuszczowych potraw. Te urządzenia mają też potencjalnie zmniejszać zużycie energii i czas gotowania.
– Panasonic w swoim portfolio posiada również markę Technics. Legendarną markę, wywodzącą się i słynną z produkcji gramofonów, które w dzisiejszych czasach wróciły do łask i sprzedaż ich bardzo rośnie. Mamy też bardzo duże portfolio kategorii Hi-Fi i Premium, jak również nową linię słuchawek True Wireless i nausznych, które charakteryzują się najwyższej jakości dźwiękiem – wymienia przedstawiciel Panasonic Polska.
Sprzęt audio, telewizory, a także produkty gamingowe, czyli szeroko rozumiana rozrywka, to elementy kategorii dobrobytu przestrzennego, w której Panasonic stawia przede wszystkim na jakość obrazu i dźwięku.











