Wzrost zagrożenia atakami terrorystycznymi w Europie i nacisk społeczny na rządy w celu podejmowania działań, które ułatwiłyby wymianę informacji pomiędzy krajowymi organami odpowiedzialnymi za bezpieczeństwo publiczne doprowadziły do stworzenia systemów informacyjnych, w których wtórnie przetwarzane są dane pasażerów. Początkowo scentralizowane systemy objęły pasażerów lotniczych podróżujących na trasach międzynarodowych, ale niedługo po tym zostały rozszerzone tak by objęły dane PNR (Passenger Name Records) dotyczące ruchu krajowego. Dziś obserwujemy tendencję rozszerzania ich na inne środki transportu, włączając w to sektor morski. W niniejszej pracy dokonano oceny najbardziej rozwiniętego z dotychczas stworzonych systemów przetwarzających dane PNR – wprowadzonego w Belgii – oraz przedstawiono wnioski płynące z jego stworzenia dla rozwiązań ogólnoeuropejskich. Przedstawiając najważniejsze problemy związane z profilowaniem pasażerów oraz z wymianą danych pomiędzy uprawnionymi instytucjami, omówiono w niej problem braku oceny wpływu przedsięwzięcia na prywatność osób, których dane są przetwarzane oraz zasygnalizowano potrzebę dokonania poprawnej oceny niezbędności i proporcjonalności rozwiązań wprowadzanych tak na poziomie państw członkowskich, jak i w unijnej dyskusji nad wdrożeniem dyrektywy PNR oraz nowych wymagań dotyczących elektronicznej rejestracji pasażerów i członków załogi na pokładzie europejskich statków pasażerskich zamieszczonych w pakiecie zmian do dyrektywy 98/41/WE.
Artykuł ukazuje proces uwalniania i otwierania danych oraz jego wpływ na tworzenie nowych typów dziennikarstwa, jak w szczególności dziennikarstwo danych.
Od końca 2017 roku na portalu internetowym Państwowego Instytutu Geologicznego – PIB dostępna jest Geobaza HAŁDY. Zawiera ona informacje i dane o mineralnych surowcach odpadowych zgromadzonych na starych hałdach, składowiskach przemysłowych i w osadnikach poeksploatacyjnych, z terenu polskiej części Sudetów. W artykule przedstawia się rodzaje danych i informacji zawarte w geobazie oraz metodykę ich gromadzenia. W rezultacie czteroletnich prac badawczych, zwiadu terenowego, kwerendy archiwów i geologicznych badań podstawowych zinwentaryzowano 445 obiektów dawnego górnictwa i przetwórstwa kopalin. Są to 403 hałdy kopalniane, 16 osadników przemysłowych, 23 składowiska i 3 zwałowiska zewnętrzne. Głównie są to obiekty po górnictwie węgla kamiennego i rud metali, w tym pouranowe. Największe możliwości gospodarczego wykorzystania odpadów wiążą się z mułami węglowymi, zgromadzonymi w osadnikach zlikwidowanego Dolnośląskiego Zagłębia Węglowego. Do łatwego wykorzystania jest również materiał z kamiennych hałd po górnictwie rud polimetali, żelaza i fluorytu. Wciąż otwarta pozostaje kwestia gospodarczego wykorzystania odpadów poflotacyjnych rud miedzi, czy też odzysku metali (w tym złota) z hałd górnictwa arsenowego. Ograniczeniem jest tu efektywność technologii odzysku metali oraz obostrzenia środowiskowe. Część obiektów znajduje się na terenach chronionych, co wyklucza możliwość zagospodarowania odpadów. Niektóre składowiska i hałdy powinny być starannie zrekultywowane i objęte monitoringiem środowiskowym, ze względu na ich szkodliwe oddziaływanie na komponenty środowiska.
W artykule opisano spory wokół sposobów zbierania danych na temat smogu w Polsce. Ramą teoretyczną analizy są studia nad nauką i technologią, a w szczególności badania nad rolą infrastruktur, standardów i danych. W części opisowej przedstawiono rolę infrastruktury pomiarowej w kształtowaniu relacji pomiędzy różnymi podmiotami zajmujący się pomiarem jakości powietrza, a następnie zanalizowano dwa wymiary konfliktu. Pierwszy z nich dotyczy kwestii metodologicznych i związany jest z rzetelnością pomiaru. Drugi natomiast – ontologii smogu, to znaczy odmiennego ujmowania problemu zanieczyszczenia przez ekspertów i obywateli, co ma przełożenie na praktyki społeczne.
The problem of poor quality of traffic accident data assembled in national databases has been addressed in European project InDeV. Vulnerable road users (pedestrians, cyclists, motorcyclists and moped riders) are especially affected by underreporting of accidents and misreporting of injury severity. Analyses of data from the European CARE database shows differences between countries in accident number trends as well as in fatality and injury rates which are difficult to explain. A survey of InDeV project partners from 7 EU countries helped to identify differences in their countries in accident and injury definitions as well as in reporting and data checking procedures. Measures to improve the quality of accident data are proposed such as including pedestrian falls in accident statistics, precisely defining minimum injury and combining police accident records with hospital data.
Potoczna obserwacja codzienności ujawnia rosnące znaczenie metod nauki o danych (data science), które w coraz większym stopniu stają się częścią głównego nurtu wiedzotwórczego. Cyfrowe technologie i ich potencjał gromadzenia oraz przetwarzania danych zapoczątkował narodziny „czwartego paradygmatu” nauki, opartego na danych dużych rozmiarów (big data). Kluczowe dla tych przemian są procesy datafikacji oraz eksploracji danych, pozwalające na odkrywanie wiedzy z danych „zanieczyszczonych”. Głównym celem rozważań jest opis zjawisk składających się na te procesy oraz wskazanie ich możliwych konsekwencji epistemologicznych. Założono, że nasilające się tendencje datafikacyjne mogą spowodować ukonstytuowanie się datacentrycznego sposobu postrzegania wszystkich aspektów rzeczywistości, czyniąc z danych oraz metod ich przetwarzania rodzaj „wyższej instancji” kształtującej ludzki sposób myślenia o świecie. Badania mają charakter teoretyczny – przeanalizowano takie zagadnienia jak proces datafikacji, pojęcie data science, wskazano także obszary rodzące wątpliwości wobec prawomocności tej formy poznania.
Terminologia jest kluczowa w komunikacji specjalistycznej, a tym samym również w zapewnieniu jakości tłumaczenia. Aby dostarczyć tłumaczenie najwyżej jakości istotne jest, aby terminy pojawiające się w dyskursie specjalistycznym były zbierane, przechowywane i zarządzane przy pomocy baz danych terminologicznych. W artykule podejmę próbę zdefiniowania „jakości” w odniesieniu do baz danych terminologicznych oraz próbę określenia metodologii i kryteriów oceny danej bazy terminologicznej w kontekście jej jakości (wiarygodności).
W obliczu rewolucji technologii informatycznych badacze nauk społecznych mają przed sobą nie lada wyzwanie. Oto bowiem wraz ze zwiększającą się popularnością Internetu pojawiły się ogromne ilości danych zawierających opinie, poglądy i zainteresowania jego użytkowników. Chociaż analiza tych danych stawia przed badaczami poważne problemy metodologiczne, za ich użyciem przemawia fascynujący materiał powstający bez ingerencji badaczy. Dużą część tego materiału stanowią dane z najpopularniejszej na świecie wyszukiwarki Google. Co minutę jej użytkownicy ze wszystkich miejsc na świecie zadają ponad 3 miliony zapytań, które są następnie klasyfikowane i udostępniane za pomocą aktualizowanych na bieżąco narzędzi. W artykule tym omówione są próby adaptacji tych danych do potrzeb nauk społecznych, a także dotychczasowe badania na ten temat. Omówione są także praktyczne aspekty pracy z narzędziami Google’a: Google Trends oraz Google Keyword Planner. Artykuł jest przeznaczony przede wszystkim dla badaczy nauk społecznych zainteresowanych internetowymi źródłami Big Data oraz wykorzystaniem tych danych w pracy naukowej.
Decision-making processes, including the ones related to ill-structured problems, are of considerable significance in the area of construction projects. Computer-aided inference under such conditions requires the employment of specific methods and tools (non-algorithmic ones), the best recognized and successfully used in practice represented by expert systems. The knowledge indispensable for such systems to perform inference is most frequently acquired directly from experts (through a dialogue: a domain expert - a knowledge engineer) and from various source documents. Little is known, however, about the possibility of automating knowledge acquisition in this area and as a result, in practice it is scarcely ever used. lt has to be noted that in numerous areas of management more and more attention is paid to the issue of acquiring knowledge from available data. What is known and successfully employed in the practice of aiding the decision-making is the different methods and tools. The paper attempts to select methods for knowledge discovery in data and presents possible ways of representing the acquired knowledge as well as sample tools (including programming ones), allowing for the use of this knowledge in the area under consideration.