Artykuł – Wykorzystanie formalnej analizy pojęć do analizy dziedzinowych danych tekstowych

Ostatnio ukazał się w biuletynie WAT nowy artykuł mojego autorstwa pt. Wykorzystanie formalnej analizy pojęć do analizy dziedzinowych danych tekstowych. W artykule tym opisałem proces projektowania systemu ekstrakcji informacji SEI. Projektowanie tego systemu oparłem na regułach oraz zastosowaniu formalnej analizy pojęć do ich odpowiedniego ułożenia w bazie wiedzy opisywanego systemu. Zapraszam do działu Publikacje i jak zawsze życzę miłej lektury.

Hadoop – Mahout

Poniżej umieszczam linki do stron związanych z pakietem Mahout do obliczeń z zakresu sztucznej inteligencji tj. klasyfikacje, grupowanie etc. Rozwiązanie to może stanowić alternatywę dla osób piszących w Javie a nie R. Istnieje również możliwość połączenia technologii. Poniżej prezentuję parę przydatnych linków:

– http://mahout.apache.org/

– http://www.ibm.com/developerworks/java/library/j-mahout/

– http://manning.com/owen/

Życzę jak zawsze miłej lektury.

Hadoop – Oozie w akcji

Podsyłam kilka interesujących linków na temat ooziego:

– http://developer.yahoo.com/blogs/ydn/posts/2010/08/workflow_on_hadoop/

– http://rvs.github.com/oozie/installing.html

– https://ccp.cloudera.com/display/CDHDOC/Oozie+Installation

Życzę jak zawsze miłej lektury.

Artykuł – Propozycja komponentu wyszukiwania systemu CBR dla PSP opartego o ontologię dziedzinową

Spłynęły następne pozytywne recenzje artykułu, tak więc w następnym wydaniu Zeszytów Naukowych SGSP nr. 43/2012 ukaże się artykuł pt. „Propozycja komponentu wyszukiwania systemu CBR dla PSP opartego o ontologię dziedzinową”. W artykule tym przedstawiono propozycję projektową komponentu wyszukiwania systemu wnioskowania na podstawie przypadków zdarzeń (ang. case based reasoning – CBR). Komponent ten bazuje na opracowanej ontologii dziedzinowej wspierającej proces wyszukiwania przypadków zdarzeń. Opracowana ontologia jest wynikiem m.in. przeprowadzonych przez autora analizy dokumentacji opisujących akcje ratowniczo-gaśnicze. Chętnych zachęcam do czytania i życzę miłej lektury.

Seminarium IPI PAN

Mam przyjemność zaprosić na seminarium Zespołu Podstaw Sztucznej Inteligencji, które odbędzie się w Warszawie 31 maja 2012 r. w budynku przy ul. Jana Kazimierza 5. Seminarium ma się odbywać cyklicznie co tydzień. Będą na nich prezentowane sylwetki osób z zespołu oraz ich badania. Informacje o odbytych i nadchodzących prezentacjach można znależć na stronia http://www.ipipan.waw.pl/ssi/. Na zbliżającym się seminarium przedstawię prezentację pt. „Autoreferat oraz elementy projektowania systemów informacyjnych”. W prezentacji zostanie przedstawiona sylwetka referującego, który jest absolwentem Politechniki Białostockiej – wydziału Elektrycznego kierunku Elektronika i Telekomunikacja. Na seminarium zostanie omówiona jego praca dyplomowa oraz tematyka rozprawy doktorskiej. Prace te związane są z inżynierią oprogramowania i projektowaniem systemów informacyjnych SI. Podczas prezentacji przedstawione zostaną także osiągnięcia, zainteresowania oraz aktualne projekty referującego.

R i Hadoop

Aktualnie podsyłam jeszcze jeden interesujący link do projektu związanego z opisem połączenia rozwiązania w postaci R project i Hadoop. Informacje można znaleźć w prezentacji http://blog.revolutionanalytics.com/2011/11/marriage-hadoop-r.html.

R hadoop

Dzisiaj krótki wpis na temat możliwości zastosowania Hadoopa w swoich programach napisanych w R project. Poniżej podaje kilka ciekawych linków:

– How to program MapReduce jobs in Hadoop with R

– RevolutionAnalytics / RHadoop

Życzę jak zawsze miłej lektury.

Wydane artykuły na temat segmentacji tekstu i przeglądu metod jego przetwarzania

Po dłuższej przerwie i oczekiwaniu ukazały się nowe artykuły. Ostatnio ukazał się artykuł – Marcin Mirończuk, Tadeusz Maciak Proces i metody eksploracji danych tekstowych do przetwarzania raportów z akcji ratowniczo-gaśniczych. Metody Informatyki Stosowanej, 4/2011 oraz artykuł tych samych autorów pt.  System informacyjny na temat sieci hydrantów dla krajowego systemu ratowniczo-gaśniczego: metoda segmentacji tekstu i jej ocena także w czasopiśmie Metody Informatyki Stosowanej, 4/2011. Zainteresowanych tematyką zapraszam do działu Abstrakty lub Publikacje, gdzie znajdują się streszczenia oraz linki do wersji elektronicznych ww. artykułów.

Artykuły

Ostatnio większość czasu spędzam nad szlifowaniem rozprawy i opisem rezultatów badań. Uzbierało się trochę tego. W między czasie widzę, że spływają recenzje wysłanych artykułów do wydawnictw. Ostatnio ukazał się artykuł – Marcin Mirończuk, Tadeusz Maciak Wykorzystanie komponentów platformy ERP do budowy drugiej generacji hybrydowego systemu wspomagania decyzji dla PSP. Metody Informatyki Stosowanej, 3/2011. Zainteresowanych tematyką zapraszam do działu Abstrakty lub Publikacje, gdzie znajdują się streszczenia oraz linki do wersji elektronicznych ww. artykułów.

Laboratoria nr 16 program nr 1

Poniżej przedstawiam zrefaktoryzwoany, przedstawiony wcześniej szkielet kodu aplikacji do przetwarzania tekstów (Labolatorium nr 15) . Aktualnie zaprezentowane zostały tematy związane z takimi zagadnieniami jak:

– biblioteka boost i wykorzystanie inteligentnych wskaźników (rozwiązanie problemów z ewentualnymi wyciekami pamięci np. przy wywoływaniu wyjątków),

– biblioteka standardowa STL,

– modyfikator const.

W miarę czasu postaram przedstawić zagadnienia związane z tampletami (ang. tamplates) stosowanymi do programowania ogólnego oraz wykorzystanie wyrażeń regularnych w budowaniu macierzy wyrażeń (ang. term matrix). Dobre wprowadzenie do biblioteki boost i wyrażeń regularnych zawiera Przemoc’s wiki. W dalszej kolejności planowane jest też pokazanie sposobów testowania kodu (ang. test unity) zamiast stosowania testów wewnątrz funkcji main().

Na koniec, a może nawet w następnym poście dotyczącym C/C++, chciałbym przedstawić zagadnienie związane z łączeniem PHP z C++. Maszyna zenda jest dość ciężka do opanowania (wiele pośrednich makr, dokumentacji etc.). Opanowanie jej zajmuje trochę czasu. Powstało jednakże bardziej elastyczne narzędzie w postaci SWIG w którym na pierwszy rzut oka zadanie to wydaje się o wiele elastyczniejsze i łatwiejsze niż poprzez hackowanie bezpośrednio zenda. Z rozwiązaniem tym pierwszy raz spotkałem się w Linux Magazine (artykuł pt. “PHP z C++”) a następnie na blogu IBMa  Build PHP extensions with SWIG, gdzie Martin Streicherwyjaśnia w bardzo przystępny sposób jak pisać rozszerzenia używając C/C++ do PHP.

Czytaj dalej