Abstrakty

Abstrakty prac

A Diversified Classification Committee for Recognition of Innovative Internet Domains

The objective of this paper was to propose a classification method of innovative domains on the Internet. The proposed approach helped to estimate whether companies are innovative or not through analyzing their web pages. A Naïve Bayes classification committee was used as the classification system of the domains. The classifiers in the committee were based concurrently on Bernoulli and Multinomial feature distribution models, which were selected depending on the diversity of input data. Moreover, the information retrieval procedures were applied to find such documents in domains that most likely indicate innovativeness. The proposed methods have been verified experimentally. The results have shown that the diversified classification committee combined with the information retrieval approach in the preprocessing phase boosts the classification quality of domains that may represent innovative companies. This approach may be applied to other classification tasks.

The Cascading Knowledge Discovery in Databases process in the Information System development

This article describes a proposal of information system project method. This method based on author’s cascading knowledge discovery in databases process. In this article, the author also to presented use case of this process. All analysis presented in this article based on text reports from the rescue fire service.

Wybrane problemy projektowe hybrydowego systemu wspomagania decyzji dla służb ratowniczych PSP

W artykule przedstawiono problematykę projektowania modelu hybrydowego systemu wspomagania decyzji dla Państwowej Straży Pożarnej. Do realizacji systemu wybrano metodę projektowania oprogramowania godnego zaufania (ang. design for trustworthy software – DFTS). W artykule w szczególności położono nacisk na omówienie etapu planowania wymagań i projektowania całości proponowanej platformy.

Metoda projektowania bazy wiedzy oraz reguł segmentatora regułowego oparta o formalną analizę pojęć

Cel: Zaprezentowanie rozwiązania problemu segmentacji tekstu dziedzinowego. Badany tekst pochodził z raportów (formularza „Informacji ze zdarzenia”, pola „Dane opisowe do informacji ze zdarzenia”) sporządzanych po akcjach ratowniczo-gaśniczych przez jednostki Państwowej Straży Pożarnej.

Metody: W celu realizacji zadania autor zaproponował metodę projektowania bazy wiedzy oraz reguł segmentatora regułowego. Zaproponowana w artykule metoda opiera się na formalnej analizie pojęć. Zaprojektowana według proponowanej metody baza wiedzy oraz reguł umożliwiła przeprowadzenie procesu segmentacji dostępnej dokumentacji. Poprawność i skuteczność proponowanej metody zweryfikowano poprzez porównanie jej wyników z dwoma innymi rozwiązaniami wykorzystywanymi do segmentacji tekstu.

Wyniki: W ramach badań i analiz opisano oraz pogrupowano reguły i skróty występujące w badanych raportach. Dzięki zastosowaniu formalnej analizy pojęć utworzono hierarchię wykrytych reguł oraz skrótów. Wydobyta hierarchia stanowiła zarazem bazę wiedzy oraz reguł segmentatora regułowego. Przeprowadzone eksperymenty numeryczne i porównawcze autorskiego rozwiązania z dwoma innymi rozwiązaniami wykazały znacznie lepsze działanie tego pierwszego. Przykładowo otrzymane wyniki F-miary otrzymane w wyniku zastosowania proponowanej metody wynoszą 95,5% i są lepsze o 7-8% od pozostałych dwóch rozwiązań.

Wnioski: Zaproponowana metoda projektowania bazy wiedzy oraz reguł segmentatora regułowego umożliwia projektowanie i implementację oprogramowania do segmentacji tekstu z małym błędem podziału tekstu na segmenty. Podstawowa reguła dotycząca wykrywania końca zdania poprzez interpretację kropki i dodatkowych znaków jako końca segmentu w rzeczywistości, zwłaszcza dla tekstów specjalistycznych, musi być opakowana dodatkowymi regułami. Działania te znacznie podnoszą jakość segmentacji i zmniejszają jej błąd. Do budowy i reprezentacji takich reguł nadaje się przedstawiona w artykule formalna analiza pojęć. Wiedza inżyniera oraz dodatkowe eksperymenty mogą wzbogacać utworzoną sieć o nowe reguły. Nowo wprowadzana wiedza może zostać w łatwy sposób naniesiona na aktualnie utworzoną sieć semantyczną, tym samym przyczyniając się do polepszenia segmentacji tekstu. Ponadto w ramach eksperymentu numerycznego wytworzono unikalny: zbiór reguł oraz skrótów stosowanych w raportach, jak również zbiór prawidłowo wydzielonych i oznakowanych segmentów.

Detecting and Extracting Semantic Topics from Polish Fire Service Raports

This article presents results of structuring text documents using the classification process. The proposed system based on classification process which used to extract information about the semantics (meaning) segments (sentences) that build text documents. The analysis was made on the reports coming from the National Fire Service (Polish Fire Service) event evidence system. The article describes the results of classification using the proposed classifiers and presents some future directions of research.

Language-Independent Information Extraction Based on Formal Concept Analysis

This paper proposes application of Formal Concept Analysis (FCA) in creating character-level information extraction patterns and presents BigGrams: a prototype of a languageindependent information extraction system. The main goal of the system is to recognise and to extract of named entities belonging to some semantic classes (e.g. cars, actors, pop-stars, etc.) from semi structured text (web page documents).

Propozycja mieszanego przetwarzania pół-strukturalnego modelu opisu zdarzeń z akcji ratowniczo-gaśniczych Państwowej Straży Pożarnej PSP

W opracowaniu przedstawiono aktualnie rozwijane reprezentacje wiedzy i sposoby opisów zdarzeń, dla systemu wnioskowania na podstawie przypadków zdarzeń służb ratowniczych Państwowej Straży Pożarnej PSP. W artykule zaproponowano sposób ich przetwarzania. Przedstawiony sposób bazuje na klasyfikacji
i wyszukiwaniu opisów zdarzeń.

Wykorzystanie formalnej analizy pojęć do analizy dziedzinowych danych tekstowych

W artykule opisano proces projektowania systemu ekstrakcji informacji SEI. Projektowanie tego systemu bazuje na regułach oraz zastosowaniu formalnej analizy pojęć do ich odpowiedniego ułożenia w bazie wiedzy opisywanego systemu.

Propozycja komponentu wyszukiwania systemu CBR dla PSP opartego o ontologię dziedzinową

W artykule przedstawiono propozycję projektową komponentu wyszukiwania systemu wnioskowania na podstawie przypadków zdarzeń (ang. case based reasoning – CBR). Komponent ten bazuje na opracowanej ontologii dziedzinowej wspierającej proces wyszukiwania przypadków zdarzeń. Opracowana ontologia jest wynikiem m.in. przeprowadzonych przez autora analizy dokumentacji opisujących akcje ratowniczo-gaśnicze.

Przegląd metod i technik eksploracji danych tekstowych 

W artykule opisano autorską klasyfikację metod i technik eksploracji danych tekstowych. Opisano aktualnie dostępne oraz stosowane metody reprezentacji danych tekstowych oraz techniki ich przetwarzania. Przeprowadzono także dyskusję na temat przetwarzania dokumentów za pomocą prezentowanych metod. Omówiono możliwości jak i ograniczenia poszczególnych prezentowanych metod do przetwarzania dokumentów tekstowych.

Crowdsourcing w państwowej straży pożarnej PSP – propozycja zastosowania 

W artykule opisano autorską propozycję zastosowania crowdsourcingu w Państwowej Straży Pożarnej PSP.  W publikacji przedstawiono podstawowe założenia do platformy informacyjnej realizującej crowdsourcing w PSP jak i schemat jej realizacji. Przedstawiono także genezę tej propozycji związaną z oceną prowadzonych przez autora badań nad zastosowaniem eksploracyjnej analizy danych tekstowych i ekstrakcji informacji w projektowaniu systemów informacyjnych SI.

System informacyjny na temat sieci hydrantów dla krajowego systemu ratowniczo-gaśniczego: metoda segmentacji tekstu i jej ocena

W artykule opisano proces projektowania segmentatora regułowego, referencyjnego zbioru segmentów oraz eksperyment numeryczny polegający na zastosowaniu skonstruowanego przez autorów publikacji segmentatora regułowego. Segmentator ten wykorzystano do podziału raportów z akcji ratowniczo-gaśniczych prowadzonych przez Państwową Straż Pożarna PSP. Rezultaty segmentacji zostały ocenione w odniesieniu do wyników pochodzących z innych segmentatorów dostępnych dla badaczy.

Proces i metody eksploracji danych tekstowych do przetwarzania raportów z akcji ratowniczo-gaśniczych

W artykule opisano proces do przetwarzania raportów z akcji ratowniczo-gaśniczych. Do przetwarzania raportów wykorzystano metody i techniki z zakresu eksploracji danych tekstowych. W opracowaniu przedstawiono klasyfikację oraz przekrój tych metod analizy tekstu których potencjalne użycie rozpatrywane jest w proponowanym procesie.

Wykorzystanie komponentów platformy ERP do budowy drugiej generacji hybrydowego systemu wspomagania decyzji dla PSP

W artykule przedstawiono problematykę projektowania modelu hybrydowego systemu wspomagania decyzji w kontekście systemu planowania zasobów przedsiębiorstwa dla Państwowej Straży Pożarnej. Omówiono w nim nowe elementy systemu i jego sposób działania.

Zmodyfikowana analiza FMEA z elementami SFTA w projektowaniu systemu wyszukiwania informacji na temat obiektów hydrotechnicznych w nierelacyjnym katalogowym rejestrze

W opracowaniu przedstawiono zastosowanie zmodyfikowanej analizy przyczyn i skutków błędów (ang. failure modes and effects analysis – FMEA) zawierającej drzewo analizy błędów oprogramowania (ang. software failure tree analysis – SFTA). Analizę tą wykorzystano do zaprojektowania systemu wyszukiwania informacji na temat obiektów hydrotechnicznych zawartej w nierelacyjnym katalogowym rejestrze.

Systemy zarządzania bazą danych i architektura agentowa w służbach ratowniczych Państwowej Straży Pożarnej

W artykule przedstawiono autorską klasyfikację Systemów Zarządzania Bazą Danych (SZBD) oraz opisano możliwość zastosowania architektury agentowej w służbach ratowniczych Państwowej Straży Pożarnej PSP. W pierwszej części artykułu dokonano autorskiej klasyfikacji, przeglądu i opisu SZBD już od pewnego czasu dobrze znanych i opisanych np. rozwiązania katalogowe, relacyjne jak i aktualnie rozwijających się np. rozwiązania obiektowe, koncepcyjne czy też oparte o rozszerzony język znaczników (ang. extensible markup language – XML).  Dotychczas zastosowanie samych baz danych i SZBD w służbach ratowniczych PSP jest mocno ograniczone. Zazwyczaj ich użycie sprowadza się do ewidencji i rejestracji zdarzeń z ewentualnym minimalnym ich wsparciem od strony informacyjnej dla Kierującego Działaniami Ratowniczymi KDR. Przedstawienie więc przekrojowej analizy SZBD daje możliwość szerszego spojrzenia na ewentualne zastosowania  niektórych rozwiązań w służbach ratowniczych, w szczególności tych mających na celu wspieranie akcji ratowniczo-gaśniczych. W drugiej części artykułu skupiono się na właśnie takim rozwiązaniu. Przedstawiono w nim zarys systemu opartego o architekturę agentową. Opisano podstawowe funkcje oraz sposób działania systemu opartego o taką architekturę. Na końcu dokonano podsumowania z wyszczególnieniem technik i powstających problemów projektowych przy realizacji omawianej platformy.

Przegląd i klasyfikacja zastosowań, metod oraz technik eksploracji danych

Wzrost ilości danych jak i informacji w aktualnych systemach informacyjnych wymusił powstanie nowych procesów oraz technik i metod do ich składowania, przetwarzania oraz analizowania. Do analizy dużych zbiorów danych aktualnie wykorzystuje się osiągnięcia z obszaru analizy statystycznej oraz sztucznej inteligencji (ang. artificial intelligence). Dziedziny te wykorzystane w ramach procesu analizy dużych ilości danych stanowią rdzeń eksploracji danych. Aktualnie eksploracja danych pretenduje do stania się samodzielną metodą naukową wykorzystywaną do rozwiązywania problemów analizy informacji pochodzących m.in. z systemów ich zarządzania.  W niniejszym artykule dokonano przeglądu i klasyfikacji zastosowań oraz metod i technik wykorzystywanych podczas procesu eksploracji danych. Dokonano w nim także omówienia aktualnych kierunków rozwoju i elementów składających się na tą młodą stosowaną dziedzinę nauki.

Problematyka projektowania modelu hybrydowego systemu wspomagania decyzji dla Państwowej Straży Pożarnej

W artykule przedstawiono problematykę projektowania modelu hybrydowego systemu wspomagania decyzji dla Państwowej Straży Pożarnej. Do modelowania systemu zastosowano opis obiektowy. W analizie projektu zwrócono uwagę na aspekty wykorzystania i wbudowania w systemie decyzyjnym podsystemu ekspertowego.

Eksploracja danych w kontekście procesu Knowledge Discovery In Databases (KDD) i metodologii Cross-Industry Standard Process For Data Mining  (CRISP-DM)

Artykuł ma na celu przybliżyć czytelnikom zagadnienia związane z przeprowadzaniem procesu KDD (ang. Knowledge Discovery in Databases) i modelowaniem projektów Data Mining za pomocą CRISP-DM (ang. Cross-Industry Standard Process for Data Mining). Przedstawiono usystematyzowaną wiedzę, podejścia i pojęcia związane z Data Mining. W pierwszej części artykułu zaprezentowano podejście do Eksploracji Danych jako jednego z cyklu KDD będącego specjalizacją procesu Knowledge Discovery. Następnie omówiona została metoda CRISP-DM. Przytoczono też kontekst użycia metody KDD w zależności od skali i integracji projektu (zagadnień) którego dotyczą – badanie zastosowań eksploracyjnej analizy tekstu w Inteligentnym Systemie Wspomagania Decyzji (ISWD), przeprowadzane przez wydział informatyki Szkoły Głównej Straży Pożarnej (SGSP). Na zakończenie artykułu dokonano podsumowania, w którym wykazano wspólne cechy między obydwoma podejściami do eksploracji i wydobywania wiedzy z baz danych.

Koncepcja systemu ekspertowego do wspomagania decyzji w Państwowej Straży Pożarnej

W artykule została przedstawiona koncepcja budowania i modelowania Systemu Wspomagania Decyzji dla Państwowej Straży Pożarnej. Koncepcja ta opiera się na zastosowaniu opisu obiektowego w postaci UML do modelowania systemu. Ponadto zostały opisane aspekty wykorzystania i budowania w systemie decyzyjnym podsystemu ekspertowego. Warstwa reprezentacji wiedzy dla systemu wykorzystuje opis ontologiczny, jako najbardziej obecnie obiecującą metodę modelowania wiedzy. Na potrzeby systemu omówiono także role, miejsce i zakres stosowania analizy tekstu stanowiącego podstawowy komponent w omawianej platformie decyzyjnej.

The distributed system for collecting and analysing selected medical data

In this paper the structure of a three-tiered distributed system for collecting and analysing medical examination data is presented. The idea of this work is to make an assistant tool for urologists to diagnose the lower urinary track diseases and their symptoms easier. The data (which are processed from the files made in the uroflowmeters – devices for measuring urine flow rate) are presented in web browser. It has been done with the use of PHP scripts which are accessed through Apache web server.

Streszczenia projektów

System gromadzenia i przetwarzania medycznych danych pomiarowych w klinice urologii

Praca prezentuje nowe podejście do przetwarzania i analizy danych pomiarowych w klinice urologii z możliwością skalowania rozwiązania na inne jednostki kliniczne. Do rozwiązania problemu analizy i przetwarzania danych zaproponowano platformę informatyczną mającą stanowić część zintegrowanego systemu informatycznego dla potrzeb klinicznych. Innowacyjność systemu dotyczy ulepszenia i reformy tradycyjnego systemu przetwarzania, składowania i analizy danych, poprzez przeniesienie tych procesów do dziedziny świata i przetwarzania cyfrowego. Architektura systemu (dwuwarstwowa klient / serwer) – jej opis, analiza, koncepcja budowy, implementacji, testowania i wdrożenia – jest opisana i oparta o nowe podejścia i techniki z dziedziny inżynierii oprogramowania. Do opisu koncepcji systemu, na którą składają się m.in. : wymagania użytkownika i funkcjonalne, interfejsy, przypadki użycia, oddziaływania między obiektami, przypadki testowe, zastosowano notacje UML 2.0. Dostarcza ona użyteczne typy diagramów (struktury i zachowań) dzięki którym możliwe jest modelowanie zachowań dynamicznych i statycznych zbudowanej platformy informatycznej. Daje ona również znaczne ułatwienie w zrozumieniu rozpatrywanego zagadnienia, zachodzących procesów w systemie i jego przedstawienie od strony opisowej, użytkowej i implementacyjnej.

W harmonogramie prowadzenia projektu informatycznego założono jego sposób realizacji. Harmonogram ten, zakładający analizy, implementację, testowanie i wdrożenie, został opisany według modelu interaktywnego Crystal. Skupia on cechy z różnych metodologii, jak np. „V”, eksperymentalne XP z grupy programowania zwinnego Agile.

Medium transportującym dane (od maszyny klienta lub lekarza do serwera bazy danych) jest sieć Internetowa z wykorzystaniem protokołu przesyłania dokumentów hipertekstowych (ang. hypertext transfer protocol – http), lub z możliwością wykorzystania protokołu szyfrowanego przesyłania dokumentów hipertekstowych (ang. hypertext transfer protocol secure – https). Dane pomiarowe generowane przez urządzenie przetwarzane są przez aplikację klienta i wysyłane do bazy danych. Do opisu danych zaproponowano rozwiązanie oparte o metajęzyk XML (ang. extensible markup language). Możliwość wytwarzania, wysyłania, odczytywania i modyfikowania danych np. historii choroby i karty pacjenta, posiada także sama aplikacja. Do reprezentacji historii choroby i karty pacjenta zaproponowano wykorzystanie pochodnej XMLa tj. XHTMLa (ang. extensible hypertext markup language). Sposób ten umożliwia standaryzację opisu danych pomiarowych, ich prezentację i modyfikację oraz łatwy przesył między różnymi rodzajami systemów.

Wartości poszczególnych danych pomiarowych wraz z kartą i historią choroby pacjenta odwzorowywane są na relacje w bazie danych i w niej utrwalane. Działaniami na danych, kontrolą ich przepływu i utrwalaniem ich w bazie danych, zajmuje się aplikacja internetowa. Aplikacja w postaci frameworka, tzw. szkieletu aplikacji, została wykonana w technice obiektowej i oparta o ogólny wzorzec projektowy zwany model-widok-kontroler (ang. model-view-controller – MVC). Użycie frameworka jak i obiektowości umożliwia łatwą jego rozbudowę o nową funkcjonalność i nowe komponenty dające się w łatwy sposób testować i refaktoryzować. Do mapowania obiektów, powstających w aplikacji, na relacje zastosowano narzędzie mapowania obiektowo-relacyjnego (ang. object-relational mapping – ORM) oparte o wzorzec architektoniczny – aktywny rekord (ang. active record). Dla zaimplementowanego systemu została także przedstawiona metoda testowania oraz przykładowe wdrożenie na poziomie jednego laboratorium.

Zazwyczaj barierą do wprowadzenia nowych rozwiązań z dziedziny technologii informacyjnych (ang. information technology – IT) są koszta. W tym przypadku są one minimalizowane dzięki wykorzystaniu darmowej platformie (ang. open source) składającej się z relacyjnej bazy danych MySQL i języka programowania PHP5 posiadającego w większości darmowe środowiska programistyczne.

Utworzony system informatyczny posiada możliwość skalowania (od szpitalnych jednostek klinicznych do ogółu jednostek) oraz działania w środowisku rozproszonym w różnych konfiguracjach. Pierwotnym jednak jego przeznaczeniem jest działanie w środowisku rozproszonych klientów podłączonych do scentralizowanej transakcyjnej relacyjnej bazy danych w obrębie jednej jednostki klinicznej.

Analiza pomiarów i wnioskowanie na jej podstawie jest często ograniczona czasowo czynnikiem ludzkim. Człowiek nie jest w stanie szybko przebadać często wielowymiarowych zależności w danych zarejestrowanych poprzez utworzony system typu przetwarzania transakcyjnego (ang. online transaction processing – OLTP). Architektura systemu daje więc w łatwy sposób możliwość zbudowania obok niej platformy typu przetwarzania analitycznego (ang. online analytical processing – OLAP) np. w postaci hurtowni danych (ang. data werhause) którą można zasilać odpowiednimi danymi z systemu OLTP. Dzięki temu otrzymana zostaje możliwość przeprowadzenia złożonej wielowymiarowej analizy danych np. przy wykorzystaniu technik i metod z dziedziny eksploracji danych (ang. data mining).

System informatyczny oparty o medium jakim jest Internet daje nowe możliwości co do przesyłania i komunikowania się między pacjentem, laboratorium i lekarzem, co też przyczynia się pośrednio do informatyzacji i budowania społeczeństwa nie tylko zinformatyzowanego ale także i informacyjnego może nawet opartego o wiedzę.

Analiza danych tekstowych w projektowaniu wybranego systemu informacyjnego na przykładzie analizy dokumentacji zdarzeń krajowego systemu ratowniczo-gaśniczego (ang. Design the chosen information system based on text mining analysis of national fire service documentation)

Po każdej interwencji służb ratowniczych Państwowej Straży Pożarnej PSP Kierujący Działaniami Ratowniczymi KDR sporządza papierową dokumentację opisującą przebieg interwencji. Forma tej dokumentacji w postaci formularza Informacje ze zdarzenia regulowana jest przez Rozporządzenie ministra spraw wewnętrznych i administracji. Formularz ten zawiera m.in. sekcję pt. Dane opisowe do informacji ze zdarzenia. W sekcji tej KDR opisuje różne aspekty podjętych działań ratowniczo-gaśniczych za pomocą języka naturalnego. Po wypełnieniu formularza papierowego tekst jest wprowadzany w formie elektronicznej do systemu ewidencji zdarzeń EWID. Omawiana sekcja dokumentacji papierowej, podzielona jest na sześć podpunktów: opis przebiegu działań ratowniczych (zagrożenia i utrudnienia, zużyty i uszkodzony sprzęt), opis jednostek przybyłych na miejsce zdarzenia, opis tego co uległo zniszczeniu lub spaleniu, warunki atmosferyczne, wnioski i uwagi wynikające z przebiegu działań ratowniczych oraz inne uwagi dotyczące danych wypełnianych w formularzu odnośnie zdarzenia. W systemie EWID brak jest podziału na takie podpunkty i zapisywany jest jednolity raport tekstowy wyrażony za pomocą języka naturalnego. Pod pojęciem tekst należy rozumieć opisy wyrażone językiem naturalnym znajdujące się w elektronicznej sekcji Dane opisowe do informacji ze zdarzenia systemu ewidencji. W tekstach tych znajdują się ważne informacje oraz wiedza dziedzinowa na temat np. sposobu neutralizacji powstałych zagrożeń czy też rodzaju użytego sprzętu do ich likwidacji.

Autor podczas swoich badań wykazał brak możliwości zastosowania omawianych tekstów bezpośrednio do analizy. Wynika to m.in. z faktu, że w rezultacie przeszukiwania sekcji elektronicznej KDR może dostać nieoczekiwane rezultaty np. kierując zapytanie o hydranty przy ulicy Mickiewicza system może zwrócić informacje nie tylko o hydrantach ale także o wszystkich akcjach ratowniczo-gaśniczych przy tej ulicy. Rozwiązanie tych problemów miała stanowić eksploracyjna analiza danych tekstowych (ang. text mining – TM) będąca specjalną odmianą (działającą na tekście) procesu odkrywania wiedzy w bazach danych (ang. knowledge discovery in databases – KDD). Aktualnie istnieją aplikacje do eksploracyjnej analizy danych tekstowych, które najczęściej współpracują z komponentami z zakresu przetwarzania języka naturalnego (ang. natural language processing – NLP). Zazwyczaj działanie tych pierwszych ogranicza się do analizy dokumentów tekstowych jako całości. Eksploracyjna analiza danych tekstowych pomija badanie zależności gramatycznych i morfologicznych na poziomie pojedynczych wyrażeń, które są domeną dziedziny przetwarzania języka naturalnego. Ewentualnie NLP stanowi uzupełnienie procesu wstępnego przetwarzania dokumentów tekstowych poprzez dostarczanie rozwiązań z zakresu np. lematyzacji czy też stemmingu. Zarówno jednak pierwsze jak i drugie podejście jest niewystarczające z tego względu, że pomija badanie segmentu, części obszerniejszego tekstu jako samodzielnego obiektu, który może nieść sam w sobie informacje. Segment w kontekście badań stanowi element tekstu w postaci zdania, które ma określony początek oraz koniec. Zazwyczaj początek zdania rozpoczyna się od dużej litery i kończy się znakiem interpunkcyjnym w postaci „.”, „!”, „?” etc. Badanie w takim kontekście segmentu, jak i nawet próba jego wyekstrahowania z dostępnych tekstów dziedzinowych, okazało się nietrywialne i znaczące w prowadzonych przez autora eksperymentach nad tekstem i jego strukturalizacją w celu zaprojektowania wybranego systemu informacyjnego.

Celem opisanego w pracy badania było opracowanie zintegrowanej metody do projektowania systemu informacyjnego SI stanowiącego narzędzie do realizacji procesów informacyjnych w oparciu o proces odkrywania wiedzy z baz danych tekstowych. W pracy zaproponowano nazwę dla takiego procesu w postaci – projektowanie SI sterowane danymi tekstowymi (ang. text driven software design). Nazwa ta ma odróżniać i podkreślać specyficzny charakter przedsięwzięcia od tradycyjnego procesu eksploracji danych tekstowych i odkrywania wiedzy z baz danych, które uwydatniają aspekt związany z tym, iż wiedza jest końcowym produktem odkrywania sterowanego danymi (ang. data-driven discovery).

W pracy dokonano przedstawienia problematyki związanej z proponowaną przez autora ogólną metodą projektowania SI realizowaną za pomocą ww. procesu. Całościowo wykazano możliwość dostosowania tego procesu, opartego o eksploracyjną analizę danych, do strukturalizacji dokumentacji tekstowej, wyrażonej za pomocą języka naturalnego i projektowania za jego pomocą SI. Studium przypadku (ang. case study) realizacji skonstruowanej metody stanowiła analiza dokumentacji zdarzeń krajowego systemu ratowniczo-gaśniczego.

Autoreferat zawierający opis poszczególnych elementów proponowanej metody można odnaleźć w sekcji Publikacje – Seminaria lub można go pobrać bezpośrednio tutaj.

Komentowanie wyłączone.