Wyniki wyszukiwania

Filtruj wyniki

  • Czasopisma
  • Autorzy publikacji
  • Słowa kluczowe
  • Data
  • Typ

Wyniki wyszukiwania

Wyników: 29
Wyników na stronie: 25 50 75
Sortuj wg:

Abstrakt

W artykule zaprezentowano model pozwalający na ustalenie optymalnej liczby łączonych zamówień pozwalającej na skrócenie średniego czasu kompletacji. Omówione zostały dwa sposoby kompletacji zleceń łączonych: „pobierz i sortuj” oraz „sortuj podczas pobierania”. Analizie poddano magazyny jednoblokowe prostokątne, gdzie towary składowano w sposób całkowicie losowy oraz losowo w oparciu o klasyfikację ABC. Zbadane zostały dwie heurystyki wyznaczania trasy magazyniera: s-shape i return, dla których można wyznaczyć wzory na średnie czasy kompletacji korzystając z własności rozkładów prawdopodobieństwa: dwumianowego i jednostajnego. W badaniach uwzględniono problem występowania zatorów w magazynie i na podstawie rezultatów symulacji zaproponowano postać analityczną funkcji czasu blokowania. Z przeprowadzonej analizy wynika, że korzyści czasowe z każdego kolejnego dołączonego do listy kompletacyjnej zamówienia są coraz mniejsze. Wykorzystywanie klasyfikacji ABC do składowania towarów szybko rotujących może w magazynach o niewielkiej liczbie alejek i przy dużych zleceniach kompletacyjnych spowodować wydłużenie czasu kompletacji
Przejdź do artykułu

Abstrakt

W artykule badana jest ekonomiczna efektywność działań mających na celu weryfikację potencjalnych beneficjentów programów charytatywnych. Taka weryfikacja ma na celu ograniczenie liczby osób otrzymujących pomoc charytatywną, które nie spełniają kryteriów jej przyznania. Jednocześnie, wiąże się ona z kosztami ponoszonymi przez organizatora programu. W artykule zaproponowano model teoretyczny opisujący to zjawisko. Do przeprowadzania analizy modelu wykorzystano metody optymalizacyjne oraz symulacyjne. Wynika z niej, że w zależności od parametrów programu charytatywnego optymalna może być jedna z trzech decyzji: przyznanie pomocy bez wprowadzania weryfikacji, przyznawanie pomocy po uprzedniej weryfikacji lub przeznaczenie środków pomocowych na inny cel. Optymalność rozwiązania zależy od charakterystyk programu, takich jak średnia kwota pomocy, średni koszt weryfikacji oraz odsetek osób potrzebujących spełniających założenia programu. W zależności od tych zmiennych organizacja charytatywna powinna podjąć decyzję o ewentualnym wprowadzeniu weryfikacji.
Przejdź do artykułu

Abstrakt

W porządkowaniu liniowym obiektów wielocechowych najpopularniejszą metodą doprowadzania danych do porównywalności jest transformacja zmiennych do przedziału [0;1] z jednoczesną zamianą destymulant na stymulanty. W tym przekształceniu wykorzystuje się zaobserwowane najmniejsze i największe wartości zmiennych. Jeżeli występują wartości odstające, lub rozkład zmiennej jest bardzo asymetryczny to w efekcie mamy do czynienia ze sztucznym ważeniem tej zmiennej. Przy asymetrii prawostronnej zmienna sztucznie zyskuje na zaznaczeniu, a przy lewostronnej – traci. W pracy zaproponowano nową, iteracyjną metodę porządkowania obiektów wielocechowych, która pozwala na ominięcie omówionej niedogodności metody klasycznej. Dalsze pozycje w rankingu wyznacza się kolejno, po jednej w każdej iteracji, a przyporządkowany obiekt jest eliminowany ze zbioru, w którym poszukujemy obiektu następnego w kolejności. Taka procedura wymagała również zaproponowania nowego sposobu wyznaczania wskaźnika agregatowego.
Przejdź do artykułu

Abstrakt

Autor niniejszego artykułu postanowił zbadać skuteczność wykorzystania metod łączenia oraz selekcji klasyfikatorów w prognozowaniu upadłości przedsiębiorstw w Polsce. Przeprowadzone badanie pozwoliło na porównanie jakości stawianych prognoz przez cztery klasyfikatory indywidualne: liniowa analiza dyskryminacyjna, regresja logistyczna, sztuczna sieć neuronowa oraz las losowy z wynikami dziewięciu metod łączenia oraz selekcji, bazujących na zbiorze powyższych klasyfikatorów. Autor artykułu przeprowadził także analizę wpływu liczby uwzględnianych zmiennych na poprawność klasyfikacji poszczególnych metod.
Przejdź do artykułu

Abstrakt

W opracowaniu podjęto po raz kolejny zagadnienie wyboru metody porządkowania liniowego jako odpowiedź na propozycję procedury przedstawionej w pracy Kisielińskiej (2016). Pokazano na dwóch przykładach, że ranking zależy od zastosowanej metody, a różnice są istotne. Podkreślono tym samym konieczność zastosowania kilku metod przed budową ostatecznego rankingu oraz wyeliminowaniu rankingów „odstających”. W artykule zaproponowano procedurę ich eliminacji. Oparto ją na średniej arytmetycznej i odchyleniu przeciętnym miar podobieństwa rankingów uzyskanych z wykorzystaniem kilku metod porządkowania liniowego. Z przedstawionych badań wynika, że dokonując wyboru metody porządkowania liniowego należy przeprowadzić obliczenia z zastosowaniem kilku procedur i dokonać wyboru wykorzystując już istniejące rozwiązania w literaturze lub zweryfikować z ekspertami badanej tematyki.
Przejdź do artykułu

Abstrakt

MP estimation is a method which concerns estimating of the location parameters when the probabilistic models of observations differ from the normal distributions in the kurtosis or asymmetry. The system of Pearson’s distributions is the probabilistic basis for the method. So far, such a method was applied and analyzed mostly for leptokurtic or mesokurtic distributions (Pearson’s distributions of types IV or VII), which predominate practical cases. The analyses of geodetic or astronomical observations show that we may also deal with sets which have moderate asymmetry or small negative excess kurtosis. Asymmetry might result from the influence of many small systematic errors, which were not eliminated during preprocessing of data. The excess kurtosis can be related with bigger or smaller (in relations to the Hagen hypothesis) frequency of occurrence of the elementary errors which are close to zero. Considering that fact, this paper focuses on the estimation with application of the Pearson platykurtic distributions of types I or II. The paper presents the solution of the corresponding optimization problem and its basic properties. Although platykurtic distributions are rare in practice, it was an interesting issue to find out what results can be provided by MP estimation in the case of such observation distributions. The numerical tests which are presented in the paper are rather limited; however, they allow us to draw some general conclusions.
Przejdź do artykułu

Abstrakt

The objective of the paper was the hydrological analysis, in terms of categorizing main watercourses (based on coupled catchments) and marking areas covered by potential impact of the occurrence and activities of the European beaver Castor fi ber . At the analysed area – the Forest District Głogów Małopolski there is a population of about 200 beavers in that Forest District. Damage inflicted by beavers was detected on 33.0 ha of the Forest District, while in the area of 13.9 ha the damage was small (below 10%). The monitoring of the beavers’ behaviour and the analysis of their influence on hydrology of the area became an important element of using geoinformationtools in the management of forest areas. ArcHydro ArcGIS Esri module was applied, as an integrated set of tools for hydrographical analysis and modelling. Further steps of the procedure are hydrologic analyses such as: marking river networks on the DTM, filling holes, making maps of the flow direction, making the map of the accumulation flow, defining and segmentation of streams, marking elementary basins, marking coupled basins, making dams in the places, where beavers occur and localization of the area with a visible impact of damming. The result of the study includes maps prepared for the Forest District: the map of main rivers and their basins, categories of watercourses and compartments particularly threatened by beaver’s foraging.
Przejdź do artykułu
Słowa kluczowe InSAR Lidar DTM accuracy statistics

Abstrakt

The TerraSAR-X add-on for Digital Elevation Measurement ( TanDEM-X) mission launched in 2010 is another programme – after the Shuttle Radar Topography Mission (SRTM) in 2000 – that uses space-borne radar interferometry to build a global digital surface model. This article presents the accuracy assessment of the TanDEM-X intermediate Digital Elevation Model (IDEM) provided by the German Aerospace Center (DLR) under the project “Accuracy assessment of a Digital Elevation Model based on TanDEM-X data” for the southwestern territory of Poland. The study area included: open terrain, urban terrain and forested terrain. Based on a set of 17,498 reference points acquired by airborne laser scanning, the mean errors of average heights and standard deviations were calculated for areas with a terrain slope below 2 degrees, between 2 and 6 degrees and above 6 degrees. The absolute accuracy of the IDEM data for the analysed area, expressed as a root mean square error (Total RMSE), was 0.77 m.
Przejdź do artykułu

Abstrakt

The processing of cartographic data demands human involvement. Up-to-date algorithms try to automate a part of this process. The goal is to obtain a digital model, or additional information about shape and topology of input geometric objects. A topological skeleton is one of the most important tools in the branch of science called shape analysis. It represents topological and geometrical characteristics of input data. Its plot depends on using algorithms such as medial axis, skeletonization, erosion, thinning, area collapse and many others. Area collapse, also known as dimension change, replaces input data with lower-dimensional geometric objects like, for example, a polygon with a polygonal chain, a line segment with a point. The goal of this paper is to introduce a new algorithm for the automatic calculation of polygonal chains representing a 2D polygon. The output is entirely contained within the area of the input polygon, and it has a linear plot without branches. The computational process is automatic and repeatable. The requirements of input data are discussed. The author analyzes results based on the method of computing ends of output polygonal chains. Additional methods to improve results are explored. The algorithm was tested on real-world cartographic data received from BDOT/GESUT databases, and on point clouds from laser scanning. An implementation for computing hatching of embankment is described.
Przejdź do artykułu
Słowa kluczowe UAV GNSS station TRAB IGS EUREF

Abstrakt

Unmanned aerial vehicles are increasingly being used in close range photogrammetry. Real-time observation of the Earth’s surface and the photogrammetric images obtained are used as material for surveying and environmental inventory. The following study was conducted on a small area (approximately 1 ha). In such cases, the classical method of topographic mapping is not accurate enough. The geodetic method of topographic surveying, on the other hand, is an overly precise measurement technique for the purpose of inventorying the natural environment components. The author of the following study has proposed using the unmanned aerial vehicle technology and tying in the obtained images to the control point network established with the aid of GNSS technology. Georeferencing the acquired images and using them to create a photogrammetric model of the studied area enabled the researcher to perform calculations, which yielded a total root mean square error below 9 cm. The performed comparison of the real lengths of the vectors connecting the control points and their lengths calculated on the basis of the photogrammetric model made it possible to fully confirm the RMSE calculated and prove the usefulness of the UAV technology in observing terrain components for the purpose of environmental inventory. Such environmental components include, among others, elements of road infrastructure, green areas, but also changes in the location of moving pedestrians and vehicles, as well as other changes in the natural environment that are not registered on classical base maps or topographic maps.
Przejdź do artykułu

Abstrakt

Time series of weekly and daily solutions for coordinates of permanent GNSS stations may indicate local deformations in Earth’s crust or local seasonal changes in the atmosphere and hydrosphere. The errors of the determined changes are relatively large, frequently at the level of the signal. Satellite radar interferometry and especially Persistent Scatterer Interferometry (PSI) is a method of a very high accuracy. Its weakness is a relative nature of measurements as well as accumulation of errors which may occur in the case of PSI processing of large areas. It is thus beneficial to confront the results of PSI measurements with those from other techniques, such as GNSS and precise levelling. PSI and GNSS results were jointly processed recreating the history of surface deformation of the area of Warsaw metropolitan with the use of radar images from Envisat and Cosmo- SkyMed satellites. GNSS data from Borowa Gora and Jozefoslaw observatories as well as from WAT1 and CBKA permanent GNSS stations were used to validate the obtained results. Observations from 2000–2015 were processed with the Bernese v.5.0 software. Relative height changes between the GNSS stations were determined from GNSS data and relative height changes between the persistent scatterers located on the objects with GNSS stations were determined from the interferometric results. The consistency of results of the two methods was 3 to 4 times better than the theoretical accuracy of each. The joint use of both methods allows to extract a very small height change below the level of measurement error.
Przejdź do artykułu

Abstrakt

The base map provides basic information about land to individuals, companies, developers, design engineers, organizations, and government agencies. Its contents include spatial location data for control network points, buildings, land lots, infrastructure facilities, and topographic features. As the primary map of the country, it must be developed in accordance with specific laws and regulations and be continuously updated. The base map is a data source used for the development and updating of derivative maps and other large scale cartographic materials such as thematic or topographic maps. Thanks to the advancement of science and technology, the quality of land surveys carried out by means of terrestrial laser scanning (TLS) matches that of traditional surveying methods in many respects. This paper discusses the potential application of output data from laser scanners (point clouds) to the development and updating of cartographic materials, taking Poland’s base map as an example. A few research sites were chosen to present the method and the process of conducting a TLS land survey: a fragment of a residential area, a street, the surroundings of buildings, and an undeveloped area. The entire map that was drawn as a result of the survey was checked by comparing it to a map obtained from PODGiK (pol. Powiatowy Ośrodek Dokumentacji Geodezyjnej i Kartograficznej – Regional Centre for Geodetic and Cartographic Records) and by conducting a field inspection. An accuracy and quality analysis of the conducted fieldwork and deskwork yielded very good results, which provide solid grounds for predicating that cartographic materials based on a TLS point cloud are a reliable source of information about land. The contents of the map that had been created with the use of the obtained point cloud were very accurately located in space (x, y, z). The conducted accuracy analysis and the inspection of the performed works showed that high quality is characteristic of TLS surveys. The accuracy of determining the location of the various map contents has been estimated at 0.02-0.03 m. The map was developed in conformity with the applicable laws and regulations as well as with best practice requirements.
Przejdź do artykułu

Abstrakt

In the following paper, geovisualisation will be applied to one spatial phenomenon and understood as a process of creating complementary visualisations: static two-dimensional, surface three-dimensional, and interactive. The central challenge that the researchers faced was to find a method of presenting the phenomenon in a multi- faceted way. The main objective of the four-stage study was to show the capacity of the contemporary software for presenting geographical space from various perspectives while maintaining the standards of cartographic presentation and making sure that the form remains attractive for the user. The correctness, effectiveness, and usefulness of the proposed approach was analysed on the basis of a geovisualisation of natural aggregate extraction in the Gniezno district in the years 2005–2015. For each of the three visualisations, the researchers planned a different range of information, different forms of graphic and cartographic presentation, different use and function, but as far as possible the same accessible databases and the same free technologies. On the basis of the final publication, the researchers pointed out the advantages of the proposed work flow and the correctness of the detailed flowchart.
Przejdź do artykułu

Abstrakt

A parcel is the most important object of real estate cadastre. Its primary spatial attribute are boundaries, determining the extent of property rights. Capturing the data on boundaries should be performed in the way ensuring sufficiently high accuracy and reliability. In recent years, as part of the project “ZSIN – Construction of Integrated Real Estate Information System – Stage I”, in the territories of the participating districts, actions were taken aimed at the modernization of the register of land and buildings. In many cases, this process was carried out basing on photogrammetric materials. Applicable regulations allow such a possibility. This paper, basing on the documentation from the National Geodetic and Cartographic Documentation Center and on the authors’ own surveys attempts to assess the applicability of the photogrammetric method to capture data on the boundaries of cadastral parcels. The scope of the research, most importantly, included the problem of accuracy with which it was possible to determine the position of a boundary point using photogrammetric surveys carried out on the terrain model created from processed aerial photographs. The article demonstrates the manner of recording this information in the cadastral database, as well as the resulting legal consequences. Moreover, the level of reliability of the entered values of the selected attributes of boundary points was assessed.
Przejdź do artykułu

Abstrakt

Praca nawiązuje do artykułu Panek (2016b) zawierającego dowód tzw. „słabego” twierdzenia o wielopasmowej magistrali w stacjonarnej gospodarce typu Gale’a. Obecnie prezentujemy „silną” oraz „bardzo silną” wersję twierdzenia o wielopasmowej magistrali. Pokazujemy, że mimo uogólnienia modelu – polegającego na zastąpieniu pojedynczej magistrali (promienia von Neumanna) wiązką magistral, którą nazywamy magistralą wielopasmową– nie zmieniają się wcześniej udowodnione magistralne własności optymalnych procesów wzrostu w gospodarce Gale”a.
Przejdź do artykułu

Abstrakt

Artykuł został oparty na wynikach badań opublikowanych w monografii pt. „Almeida – O Castelo de D. Dinis e a Fron- teira de Portugal / The Castle of King Dinis and the Frontier of Portugal” (Câmara Municipal de Almeida, 2013), która zachęcała do refleksji na temat rewaloryzacji obszaru zamku twierdzy Almeida. Twierdza to jeden z najważniejszych przykładów nowożytnej architektury obronnej w Portugalii o ogromnym znaczeniu dla kulturowego dziedzictwa, natomiast zamek i teren wokół stanowi zabytek archeologiczny o szczególnym znaczeniu dla historii kraju i historiografii nowożytnej obronności. Pierwsze fortyfikacje po przeciwnej stronie naturalnej granicy pomiędzy Portugalią i Hiszpanią stawiał tu król Dionizy I, co w roku 1297 utorowało drogę do podpisania traktatu pokojowego w Alcañices, a w wiekach późniejszych miały tu miejsce ważne zdarzenia o historycznym znaczeniu dla formowania się świadomości narodowej Portugalczyków.
Przejdź do artykułu

Abstrakt

Polski film fabularny w latach 60. XX wieku był nie tylko medium przynoszącym rozrywkę czy też naukę, przyczynił się także do kształtowania gustów Polaków w zakresie architektury wnętrz. Architektura wnętrz w omawianym okresie stała się ponownie polem do szeroko zakrojonych eksperymentów twórczych noszących znamiona nowoczesności. Obraz filmowy tego czasu w wielu przypadkach stał się zapisem historii polskiego wnętrzarstwa. Z perspektywy czasu, który minął możemy traktować kadry filmu jako obraz historyczny, dzięki któremu istnieje możliwość zobaczenia dzieł w ich naturalnym środowisku.
Przejdź do artykułu

Abstrakt

Wykorzystanie metod rozwoju zrównoważonego jako jedynej możliwej formy kształtowania architektury efektywnej ekologicznie wydaje się stwarzać złudne wrażenie braku innych możliwości rozwoju współczesnej eko-architektury w konfrontacji z wyzwaniami, przed jakimi staje społeczeństwo zamieszkujące przestrzenie zurbanizowane. Jednak niniejszy artykuł ma na celu przedstawić ideę zielonej architektury jako jednej z dróg rozwoju współczesnych zrównoważonych miast, będącej formą przekształcenia struktur miejskich w inny niż dotychczas sposób. Traktuje ona zagadnienie bardziej holistycznie, poszerzając je o kolejne aspekty, bez nacisku jedynie na elementy efektywności energetycznej, gospodarowania zasobami wody i wykorzystania zdobyczy współczesnej techniki w służbie oszczędności. Zielona architektura może stać się najbardziej twórczym elementem współczesnych miast. Pozostaje jednak pytanie, czy zmieniające się dynamicznie środowisko miejskie posiada przed sobą jakąś alternatywę, czy jednak zielona architektura pozostanie jedynie jedną z wielu możliwych form kształtowania przestrzeni współczesnych miast. Istotne będzie, czy stanie się ona jednym z ogólnoświatowych trendów projektowych, czy jednak zasady jej tworzenia zostaną w pewnym momencie w sposób całościowy narzucone bezpośrednio lub pośrednio, poprzez sformalizowanie wymogów dotyczących parametrów tworzonej przestrzeni. Wykorzystanie zdolności adaptacyjnych miasta do implementacji nowych funkcji, gałęzi usług, rekreacji i ich aktywizowanie, pobudzanie samowystarczalności poprzez systemowe wprowadzenie nowej formy architektury może w tym przypadku stanowić odpowiedzi na pogarszające się warunki środowiska nie-zurbanizowanego oraz metodę na rozwiązanie problemu dezintegracji struktur miejskich. Jednocześnie również daje to możliwość poszerzenia grona odbiorców architektury nie tylko do ludzi, lecz świadomie tworzenie przestrzeni również dla rozwoju miejskiej biocenozy.
Przejdź do artykułu

Abstrakt

Zgodnie z Rozporządzeniem Ministra Gospodarki z dnia 16 lipca 2015 roku w sprawie dopuszczania odpadów do składowania na składowiskach (Dz.U. z 2015 r., poz. 1277) frakcje odpadów komunalnych o cieple spalania wyższym niż 6 MJ/kg nie mogą być składowane na składowiskach odpadów innych niż niebezpieczne i obojętne. Istnieje zatem konieczność wydzielenia tych frakcji i skierowanie ich do przetwarzania innymi metodami. W pracy podjęto działania w celu oszacowania wskaźników liczbowych, które pozwoliłyby na obliczanie i prognozowanie masy odpadów komunalnych wytwarzanych przez mieszkańców a mogących stanowić paliwo alternatywne, jednocześnie zmniejszając masę odpadów kierowanych do składowania. Analizie poddano liczne dane literaturowe, które dotyczą wartości opałowych oraz ciepła spalania poszczególnych frakcji morfologicznych. Wielkość wytwarzania odpadów komunalnych przez mieszkańców oraz skład morfologiczny odpadów są zróżnicowane dla różnych obszarów. Przeanalizowano strumień odpadów komunalnych wytwarzanych i zbieranych w sposób selektywny, jak też w sposób zmieszany w podziale na duże miasto (powyżej 50 000 mieszkańców), małe miasto (poniżej 50 000 mieszkańców) oraz obszary wiejskie. Ze względu na zakaz składowania odpadów dla których ciepło spalania jest wyższe niż 6 MJ/kg, założono, że frakcje takie można uznać za energetyczne, chociaż literatura podaje, że odpady stosowane jako paliwa powinny wykazywać wartość opałową na minimalnym dwukrotnie wyższym poziomie. Obowiązujący Krajowy plan gospodarki odpadami 2022 (M.P. z 2016 r., poz. 784) pozwala na zrównanie wskaźnika wytwarzania odpadów komunalnych na obszarach o różnym charakterze zabudowy na prognozowanym w 2025 roku poziomie 302–313 kg/mieszkańca/rok (kg/M/rok), jednak udziały poszczególnych frakcji morfologicznych są odmienne. Na podstawie przeprowadzonej szerokiej analizy danych literaturowych można stwierdzić, że poszczególne frakcje morfologiczne odpadów komunalnych charakteryzują się zdecydowaną zmiennością wartości opałowej. Najwyższą wartością opałową na poziomie 22–46 MJ/kg charakteryzują się tworzywa sztuczne. Wartość opałowa odpadów z tworzyw sztucznych jest wysoka, porównywalna do paliw kopalnych. Kolejne frakcje morfologiczne charakteryzują się wartością opałową, na niższym, ale również wysokim poziomie: papier i tektura 11–26 MJ/kg, tekstylia 15–16 MJ/kg, drewno 11–20 MJ/kg oraz odpady wielomateriałowe 16 MJ/kg. Wartość opałowa wymienionych powyżej odpadów generalnie przekracza 12 MJ/kg i spełnia minimalne wymagania stawiane odpadom, które mogą być stosowane jako paliwa. Pozostałe analizowane frakcje odpadowe charakteryzują się wartością opałową poniżej 6 MJ/kg. W strumieniu wytwarzanych odpadów komunalnych na poszczególnych obszarach frakcje energetyczne zajmują znaczący udział. Przy zrównanym wskaźniku wytwarzania największy udział frakcji energetycznych (powyżej 6 MJ/kg, a nawet 12 MJ/kg) obserwowany jest w odpadach generowanych przez mieszkańców dużego miasta i wynosi 39%, nieco niższy w odpadach generowanych przez mieszkańców małego miasta na poziomie 29%, a najniższy w odpadach generowanych przez mieszkańców obszarów wiejskich na poziomie 22%. Oszacowany wskaźnik wytwarzania frakcji energetycznych w strumieniu odpadów komunalnych zmienia się od 122 kg/M/rok dla obszaru dużego miasta do 67 kg/M/rok dla obszaru wiejskiego.
Przejdź do artykułu

Abstrakt

W artykule podjęto próbę opracowania prognozy dotyczącej wydobycia, konsumpcji i salda wymiany z zagranicą surowców energetycznych będących źródłem energii pierwotnej w Polsce. Ze względu na brak nowej polityki energetycznej Polski, autorzy oparli się na dostępnych dokumentach zarówno krajowych, jak i zagranicznych, z których najważniejsze to nadal obowiązująca Polityka energetyczna Polski do 2030 roku, przyjęta w 2009 r. oraz Prognoza zapotrzebowania na paliwa i energię do 2050 roku opracowana przez Krajową Agencję Poszanowania Energii S.A. Uwzględniono również Projekt Polityki energetycznej Polski do 2050 roku wraz z najważniejszymi analizami prognostycznymi wykorzystywanymi podczas jego przygotowywania. W artykule odniesiono się do prognozy Krajowej Agencji Poszanowania Energii wykazując jej liczne błędy, jak na przykład nieuwzględnianie: spadków cen nośników energii na światowych rynkach, możliwych wzrostów cen uprawnień do emisji CO2 w Unii Europejskiej, czy też zakładanie zbyt niskich celów wykorzystywania OZE w polskiej gospodarce. Autorzy artykułu wyrazili pogląd co do możliwości uruchomienia pierwszej w Polsce elektrowni jądrowej w połowie trzeciej dekady obecnego stulecia. W dalszej części artykułu przedstawiono prognozy dotyczące wydobycia, zużycia i salda wymiany węgla kamiennego i brunatnego, ropy naftowej i gazu ziemnego w Polsce w perspektywie do 2040 roku. Zwrócono uwagę na prognozowany spadek poziomu wydobycia węgla w Polsce, zwłaszcza węgla kamiennego, co zwiększy import tego surowca do Polski. W przypadku gazu ziemnego planowany jest wzrost wydobycia do poziomu 8,5 mld m3 w 2040 roku, ale w najbliższych latach nadal głównym dostawcą gazu ziemnego do Polski będzie rosyjski Gazprom, a zapotrzebowanie będzie uzupełniane przez terminal LNG w Świnoujściu. Jeszcze poważniejsza, z punktu widzenia bezpieczeństwa energetycznego, jest sytuacja związana z dostawami ropy naftowej do Polski. Jeszcze w 2015 r. aż 88% krajowego zapotrzebowania na ropę naftową było pokrywane dostawami z Rosji (ropa REBCO) (POPiHN 2017). W 2016 r. udział ten znacząco się obniżył do 81%, mimo obowiązujących kontraktów z firmami rosyjskimi i już 1/4 surowca, który trafia do Grupy LOTOS pochodzi z krajów Zatoki Perskiej, a w przypadku PKN ORLEN udział dostawców alternatywnych wobec dostaw z kierunku wschodniego wynosi 12% (POPiHN 2017).
Przejdź do artykułu

Abstrakt

The aim of the paper is to identify which factors influence the production of crude oil in Africa and what it means for the investments in oil production on this continent in the future. In order to identify these factors it is necessary to create a function of production. A number of variables have been chosen, which are likely to have an influence on the level of exploitation, such as the price of oil, oil consumption in Africa, oil import by the US, etc. The estimation of the function was based on the statistical analysis of empirical data. For the years 1980–2015 the linear regression model was estimated using the method of ordinary least squares (OLS) and econometric software – GRETL. In order to find the best model the academic research on the global oil market has been taken into account and a variety of statistical and econometric tests have been made. According to the literature on the subject, the production of crude oil in Africa is mostly affected by two players – Europe and the US. The first includes the member states of the OPEC. There are also countries of West Africa which in the past exported most of their production to the US. The model shows that the situation has changed after the “shale revolution”, which reduced the level of imported oil and consequently the level of African production. Moreover, an interesting trend has been noticed, namely that when oil prices go up, the oil production in Africa decreases. The reason for this phenomenon is that high oil prices make American shale plays more profitable than West African petroleum basins. The model aggregating macroeconomic indicators and statistics is a very useful management tool and it reveals the problems of the efficiency of investments in oil production in Africa.
Przejdź do artykułu

Abstrakt

Recently there has been a significant debate about the possible implementation of a centralized capacity mechanism in Poland. Despite the fact that capacity adequacy is currently being discussed at the national level as a long-term issue, the lack of sufficient capacity and insufficient demand flexibility has already been observed on a number of occasions. In July 2016, the Polish Ministry of Energy expressed its support for the implementation of a market-wide capacity mechanisms. In view of these recent events, the aim of this paper is to shed some light on the possible implementation of a capacity market in Poland. The paper presents a brief overview of the key problems that the Polish power sector faces and provides a comparative analysis between some of the main elements of the Polish capacity market proposal and the GB capacity market.
Przejdź do artykułu

Abstrakt

Artykuł przedstawia zmiany w polskim prawie dotyczącym odnawialnych źródeł energii w 2016 roku w stosunku do dużych instalacji komercyjnych oraz wpływ tych zmian na opłacalność inwestowania w technologie energetyki odnawialnej ze szczególnym uwzględnieniem energii słonecznej. Porównano dwa systemy wsparcia: oparty na zielonych certyfikatach oraz system aukcyjny. Omówiono w szczególności mechanizm ustalania ceny w systemie aukcyjnym i jego wpływ na opłacalność inwestowania w technologie fotowoltaiczne. Zaprezentowano dyskusję wyników w świetle rozwiązań praktykowanych w innych państwach. Wnioski dotyczą wpływu planowanych zmian na rozwój sektora odnawialnej energii w Polsce.
Przejdź do artykułu

Abstrakt

Celem każdego rządu jest stworzenie dobrych warunków dla zrównoważonego rozwoju sektora energetycznego, co wiąże się z kolei z rozwojem gospodarki danego kraju. W poszczególnych państwach przyjmuje się indywidualne modele zarządzania sektorem energetycznym. W Polsce coraz częściej podejmowane są próby określenia nowego modelu strategii energetycznej, spełniającego oczekiwania odbiorców, przy jednoczesnym wypełnieniu wymogów stawianych przez Unię Europejską. W niniejszym artykule przeanalizowano klastry funkcjonujące na krajowym rynku. Wskazano ich wspólne i odmienne cechy, a także podkreślono ich rolę w zrównoważonym rozwoju gospodarki.
Przejdź do artykułu

Ta strona wykorzystuje pliki 'cookies'. Więcej informacji