Badania naukowe

Działalność badawcza pracowników Katedry dotyczy informatyki i obejmuje następujące kierunki:




Aktualne obszary badawcze


Wirtualna i wzbogacona rzeczywistość

Jednym z głównych obszarów badawczych KTI są systemy multimedialne i systemy wirtualnej rzeczywistości. KTI brała udział w kilku europejskich projektach z tego obszaru: PISTE, ARCO, INTUITION, MM4All, Web2.0ERC, Ed2.0Work współpracując z wieloma zagranicznymi uniwersytetami i czołowymi przedsiębiorstwami. KTI jest jednym z członków założycieli stowarzyszenia EuroVR.

Jednym z najważniejszych osiągnięć naukowych KTI w dziedzinie wirtualnej rzeczywistości i systemów multimedialnych jest opracowanie podejścia Flex-VR. Trudności związane z tworzeniem praktycznie użytecznych złożonych interaktywnych trójwymiarowych scen są jednym z głównych czynników ograniczających popularność aplikacji trójwymiarowych. Podejście Flex-VR pozwala tworzyć konfigurowalne aplikacje wirtualnej rzeczywistości, czyli aplikacje, których treść może być konfigurowana (tworzona lub modyfikowana) w łatwy sposób nawet przez niedoświadczonych użytkowników. Podejście Flex-VR może być wykorzystywane do tworzenia aplikacji uruchamianych zarówno lokalnie, jak i dostępnych przez sieć. Pozwala ono tworzyć aplikacje wykorzystujące wirtualną rzeczywistość w dziedzinach takich jak: e-edukacja, e-biznes, e-przewodniki, wsparcie użytkownika, wizualizacja procesów oraz systemy informacji geograficznej. Podejście Flex-VR zostało zastosowane i było rozwijane w ramach trzech międzynarodowych projektów: PISTE, ARCO, Periscope oraz w ramach krajowego projektu iTVP. Zastosowane technologie zostały częściowo opatentowane na poziomie europejskim.

ARISM (ang. Augmented Reality Interactive Scenario Modeling) jest nowatorskim podejściem do tworzenia treści edukacyjnych w środowiskach „wzbogaconej rzeczywistości”. W ramach tego podejścia proces tworzenia scen wzbogaconej rzeczywistości został podzielony na trzy etapy: projektowanie treści, tworzenie treści i instalowanie treści. Każdy z wymienionych etapów jest przeprowadzany przez specjalistów o różnym poziomie wiedzy technicznej i dziedzinowej. W ramach ARISM zaproponowano koncepcje AR-klasy i AR-obiektu jako rozszerzeń paradygmatu programowania obiektowego na potrzeby technologii AR. Własności wizualne i behawioralne AR-obiektów są wyznaczane w momencie ich tworzenia.

Zagadnienia podejmowane przez KTI obejmują również bezpieczeństwo w nowoczesnych trójwymiarowych wirtualnych środowiskach. Środowiska tego typu są interaktywne, współtworzone przez użytkowników, wykorzystywane na masową skalę i podlegają zmianom w sposób dynamiczny. Tradycyjne gruboziarniste i bazujące na geometrii metody kontroli dostępu nie są wystarczające dla środowisk tego typu. Z tego powodu w KTI zaproponowano dla nich semantyczne metody kontroli dostępu oparte na ontologiach i bazach wiedzy. Obejmują one nie tylko modele geometryczne, związki między nimi i ich struktury, ale również ich zachowanie, w tym interakcje jakie zachodzą między obiektami.

Ostatnie badania w KTI nad bezpieczeństwem systemów multimedialnych są ukierunkowane na zabezpieczenie przed zagrożeniami wynikającymi z nowego podejścia do ich projektowania – federalizacji systemów multimedialnych. Ponieważ złożone i interaktywne treści multimedialne mogą być dynamicznie komponowane z rozproszonych źródeł, wymagane jest zagwarantowanie ich integralności i zgodności funkcjonalnej z semantycznymi opisami, na podstawie których dokonuje się kompozycji. Przedmiotem badań jest również zapewnienie bezpieczeństwa dystrybucji treści multimedialnych w sieciach typu hyper-grid, gdzie nie ma gwarancji, że hosty tworzące sieć są zaufane i ich zmodyfikowane oprogramowanie nie uzyska dostępu do przetwarzanych danych np. w celu pirackiej dystrybucji. Powyższe badania obejmują również tematykę bezpieczeństwa multimedialnych usług sieciowych, w szczególności reprezentacje polityk bezpieczeństwa oraz schematy przepływu danych w systemach multimedialnych. W badaniach tych jest również uwzględniane zagadnienie ochrony prywatności użytkowników tego typu systemów.

Zadania badawcze realizowane w KTI obejmują również problemy kompozycji i tworzenia scenariuszy narracyjnych wykorzystujących rozproszone multimedialne treści cyfrowe. W szczególności prace te dotyczą problemów wirtualnych muzeów i ekspozycji oraz treści tworzonych z wykorzystaniem sieci społecznych (Web 2.0). Modele i metody opracowane w KTI pozwalają na automatyczne lub pół-automatyczne budowanie ścieżek narracji i scenariuszy interaktywnych z uwzględnieniem potrzeb i preferencji użytkowników, dostępności treści (włączając w to zależności czasowe i geograficzne lub polisy dostępu), wykorzystywanych urządzeń oraz semantyki treści.

Projekty związane z dziedziną wirtualnej rzeczywistości i systemów multimedialnych:



Internet Rzeczy i jego zastosowania


Semantyczny Internet Rzeczy

Na przestrzeni ostatnich lat można zaobserwować rosnące zastosowanie małych, ale „inteligentnych” urządzeń pomagających człowiekowi w wypełnianiu codziennych obowiązków. Takie urządzania łączą się z siecią komputerową w celu komunikacji między sobą i komunikacji ze środowiskiem. Urządzenia takie są niewidzialne dla człowieka, dopóki określone działanie z ich strony nie jest konieczne. W przypadku, gdy urządzenie zauważa konieczność wykonania pewnego zadania, jest ono automatycznie aktywowane (bez konieczności działania ze strony człowieka) w celu wykonania tego zadania. Zbiór takich komunikujących się urządzeń nazywamy Internetem Rzeczy (Internet of Things).
W trakcie tworzenia systemów i aplikacji zgodnych z koncepcją Internetu Rzeczy, można napotkać dwa podstawowe problemy: problem interfejsu umożliwiającego dostęp do urządzenia i problem programowania urządzeń w sposób dynamiczny. Jak dotychczas próby rozwiązania tych problemów były oparte na bezpośrednim adresowaniu urządzeń w abstrakcji od semantyki obiektów świata rzeczywistego, powiązanymi z tymi urządzeniami. Zakładając, że typowe urządzenie Internetu Rzeczy ma ograniczone możliwości sprzętowe oraz że liczba urządzeń na określonym obszarze może być ogromna, takie rozwiązanie jest niewygodne zarówno dla programistów, jak i dla użytkowników końcowych.
W KTI zaproponowano semantyczne połączenie urządzeń Internetu Rzeczy z obiektami świata rzeczywistego, takimi jak drzwi, okna, lampy, grzejniki itd. W ramach tej propozycji, dwa podstawowe typy encji są modelowane, pośrednio lub bezpośrednio przez semantyczne opisy: pojedyncze urządzenia i grupy urządzeń Internetu Rzeczy, zwane konglomeratami, oraz obiekty świata rzeczywistego wraz z ich powiązaniami do urządzeń Internetu Rzeczy. Opisy wszystkich modelowanych encji tworzą pojedynczą ontologię. Ontologia jest również odpowiedzialna za modelowanie związków pomiędzy urządzeniami i obiektami świata rzeczywistego oraz pośrednio, związków pomiędzy ludźmi i obiektami.
Związki są przechowywane w formie par składających się z typu funkcji i typu obiektu. Funkcja precyzyjnie określa działanie zdefiniowane przez użytkownika, takie jak „otwórz”, „zamknij”, „włącz” itp. Typ obiektu modeluje grupę obiektów świata rzeczywistego, posiadających określone cechy. Typem obiektu mogą być „drzwi”, „lampa” itp. Para funkcja-obiekt może być związana z urządzeniem (albo zbiorem urządzeń) i wyrażać zastosowania urządzenia. Z drugiej strony, taka para może być powiązana z nadchodzącym żądaniem i wówczas określa wymagania funkcjonalne. Przeprowadzając porównanie (przy wykorzystaniu ontologii) możliwości urządzenia z wymaganiami określonymi w żądaniu jest możliwe dynamiczne określenie, jakie urządzenia mogą zrealizować dane żądanie. W celu ograniczenia możliwości wyboru jest również uwzględniany kontekst działania. Typowe parametry kontekstu są związane z położeniem geograficznym, parametrami środowiska, takimi jak temperatura, oświetlenie, ciśnienie atmosferyczne itp. Istnieje również możliwość rozszerzenia kontekstu w miarę potrzeb, na przykład w celu przekazania informacji o liczbie osób znajdujących się na danym obszarze, bieżącego czasu itp.
Przykładowo, żądanie „otwarcia drzwi” zostanie obsłużone w następujący sposób. Po pierwsze, jest określany kontekst, w jakim działa zgłaszający żądanie, w tym przypadku lokalizacja drzwi, przed którymi stoi użytkownik. Następnie, żądana funkcja („otwieranie”) i obiekt świata rzeczywistego („drzwi”) są pobierane z żądania. Później, zgodnie z ontologią, są wyszukiwane takie urządzenia Internetu Rzeczy, które mają możliwość wykonania żądanej czynności i są powiązane z obiektem danego typu w świecie rzeczywistym, oraz spełniają wymagania kontekstu. Aktywacja odpowiednich urządzeń umożliwia realizację żądania, np. otwarcie drzwi w danym pomieszczeniu. Należy zauważyć, że w opisanym procesie uniknięto bezpośredniego odwoływania się do urządzeń Internetu Rzeczy i świata rzeczywistego.
W ramach badań nad zagadnieniami związanymi z Internetem Rzeczy skonstruowano środowisko prototypowe SITE (Semantic Internet-ofThings Environment). Dzięki zastosowaniu SITE jest możliwe wyrażenie funkcji urządzeń Internetu Rzeczy przez wskazywanie wyłącznie obiektów świata rzeczywistego i dynamiczne wybieranie urządzeń w celu obsłużenia dynamicznie tworzonych żądań. SITE może znaleźć zastosowanie w wielu obszarach, w tym w obsłudze inteligentnych budynków, w miejscach, w których zachodzą w sposób dynamiczny interakcje pomiędzy ludźmi i urządzeniami Internetu Rzeczy, w nowoczesnych muzeach wykorzystujących inteligentne przewodniki, w zakładach przemysłowych (np. w „inteligentnym” stanowisku pracy lub na terenie budowy) itp. Środowisko SITE jest obecnie intensywnie testowane. W ramach testów jest symulowane działanie nowoczesnego, inteligentnego budynku posiadającego dynamiczny system kontroli wykorzystujący żądania typu bezpośredniego (np. naciśnięcie przycisku) i pośredniego (np. obecność człowieka).
Dalsze badania nad sterowaniem semantycznym Internetu Rzeczy zaowocowały opracowaniem tak zwanej sieci bezadresowej do sterowania urządzeniami. W sieci takiej adresy urządzeń i klasyczne identyfikowanie węzłów nie są wykorzystywane. W zamian w sieci są wymieniane komunikaty o określonej semantyce. Jeśli urządzenie, które odbierze taki komunikat, pozytywnie zweryfikuje semantykę wiadomości ze swoimi możliwościami, przystąpi do wykonania określonego zadania. Na przykład, komunikat „otwórz drzwi”, reprezentowany semantycznie w opisany wyżej sposób, uaktywni te urządzenia, dla których zadeklarowano specyficzną akcję dla takiego samego opisu semantycznego. Podjęta akcja zależy od specyfiki urządzenia – na przykład komunikat „uruchom alarm” oznacza otwarcie drzwi i okien przez jeden rodzaj urządzeń, zaświecenie lamp ewakuacyjnych w kolorze czerwonym przez sterownik lampy, odtworzenie komunikatu głosowego przez syntezator mowy itp. Sieć bezadresowa została zaimplementowana w ramach środowiska HCN (Home Control Network) dla mikrosterowników typu Raspberry i Arduino. W ramach projektu zaimplementowano także sterownik gestów oraz sterownik głosowy w języku zbliżonym do naturalnego, pracujący ze słownikiem ok. 100 słów i wykorzystujący smartfony Android, na podstawie których można określać semantykę komunikatów kierowanych bezadresowo do sieci. W chwili obecnej sieć HCN obejmuje kilkadziesiąt węzłów w dwóch pomieszczeniach, co pozwala na kompleksowe sterowanie praktycznie wszystkimi instalacjami (ogrzewanie, oświetlenie, wentylacja, otwieranie drzwi i okien itp.) oraz urządzeniami tzw. małego komfortu (syntezator tła dźwiękowego i wizyjnego, symulator aktywności itp.).
W laboratorium są także testowane systemy identyfikacyjne i lokalizacyjne, z wykorzystaniem takich technologii jak GSP i aGPS, kody kreskowe, znaczniki RFID i NFC oraz boje lokalizacyjne Bluetooth. Powstały w laboratorium uniwersalny system informacyjny dla użytkowników telefonów komórkowych o nazwie BeaN (Beacon Informer) jest wykorzystywany w całej uczelni jako uniwersalny informator na temat lokalnych właściwości danego miejsca (plan zajęć w salach dydaktycznych, dane teleadresowe pracowników przy drzwiach ich miejsc pracy i konsultacji, opis infrastruktury uczelni oraz „ciekawych” miejsc i wydarzeń, pomoc w organizacji spotkań i konferencji itp.). W chwili obecnej toczą się prace nad adaptacją systemu dla potrzeb „inteligentnego” miasta – w ramach prac powstał projekt sterownika urządzenia infrastruktury miejskiej z przekazywaniem stanu w sieci lokalnej ad-hoc w standardzie Bluetooth Low Energy, który to projekt jest przedmiotem zgłoszenia patentowego. Sterowniki takie mogą np. przekazywać informacje o aktualnym stanie świateł drogowych dla danego kierunku (w tym drogą syntezy mowy dla osób niedowidzących), dane o remontach i zamknięciach dróg, objazdach, imprezach kulturalnych i sportowych itp.

Cyberbezpieczeństwo i prywatność


Wraz z ciągłym rozwojem technologii informacyjnych pojawiają się nowe, wzajemnie powiązane paradygmaty przetwarzania informacji. W konsekwencji niestety zwiększa się również przestrzeń ataku na poufność, integralność, dostępność, autentyczność i niezaprzeczalność danych i systemów oraz pojawiają się nowe zagrożenia i wyzwania związane z bezpieczeństwem użytkowników procesów, danych i urządzeń: bez cyberbezpieczeństwa „Internet wszystkiego” jest niczym. W prowadzonych badaniach naukowych staramy się odpowiedzieć na zapotrzebowanie na nowe metody kontroli dostępu odpowiadające specyfice nowoczesnych usług wszechobecnych i minimalizujące nowe zagrożenia, ale także staramy się przyjąć holistyczne spojrzenie, analizując wzajemne zależności pomiędzy nowymi rodzajami zasobów, zagrożeń i zabezpieczeń. 
Pierwsza grupa prowadzonych badań jest związana z automatycznymi płatnościami stanowiącymi kluczową funkcjonalność środowisk inteligentnych i wszechobecnych. Można się spodziewać, że automatyczne płatności będą coraz częściej wykorzystywane do rozliczeń użytkowników za wykorzystanie infrastruktury inteligentnych środowisk. Dlatego prowadzimy badania nad pasywną kontrolą dostępu – niewymagającą jawnych działań ze strony użytkownika w przypadku płatności rutynowych realizowanych w fizycznych punktach obsługi. Jest to podejście oparte na rozpoznaniu klienta za pomocą biometrii twarzy i odpowiada ono pierwszej fazie obsługi klienta, tj. procesowi identyfikacji użytkownika. Po tej fazie klient jest obsługiwany i ostatecznie dokonuje płatności wymagającej odpowiedniego procesu autoryzacji. Dzięki rozpoznawaniu kontekstu, w którym przeprowadzana jest transakcja, możliwa jest dynamiczna ocena ryzyka i zaufania, a w konsekwencji wybór metody autoryzacji stanowiącej najlepszy możliwy kompromis między bezpieczeństwem i wygodą, w wielu przypadkach zapewniający pełną pasywność. Proponowane podejście wprowadza wartość dodaną dla wszystkich aktorów tego procesu: operatora płatności, sprzedawcy (usługodawcy) i użytkownika końcowego.
Potrzeba korzystania z usług elektronicznych w różnorodnych i zmiennych środowiskach jest przyczyną, dla której użytkownicy korzystają w coraz większym stopniu z mobilnych urządzeń i aplikacji. Prace prowadzone w tym obszarze również oparte są na technologiach biometrycznych i kontekstowych. Posiadając dostęp do wielu metod uwierzytelnienia użytkownika, w tym biometrycznych i niebiometrycznych, urządzenie mobilne może zostać wyposażone w oprogramowanie dokonujące adaptacji uwierzytelniania do nieprzerwanie zmiennych warunków zewnętrznych. Zaproponowane rozwiązanie kontekstowe jest w stanie zweryfikować występowanie niepożądanych czynników w danym momencie i zaproponować najwłaściwszą metodę uwierzytelnienia wraz z najwłaściwszą formą poinformowania użytkownika o wybranej metodzie. 
Kolejne pole badań nad cyberbezpieczeństwem jest związane z nowymi ryzykami wynikającymi z dynamicznej kompozycji usług w czasie rzeczywistym w środowiskach wszechobecnych, w której biorą udział strony niezaufane. Ryzyka te tworzą zapotrzebowanie na nowe metody kontroli dostępu dostosowane do specyfiki poszczególnych dziedzin zastosowań systemów wszechobecnych, w szczególności do specyfiki mobilnych systemów wzbogaconej rzeczywistości (AR). W celu rozwiązania tego wyzwania opracowywane są architektury przeznaczone dla wszechobecnych usług AR, a także protokoły bezpieczeństwa, które wymuszają tworzenie i korzystanie z prezentacji AR zgodnie z semantycznie opisanymi politykami bezpieczeństwa. Obejmują one kontrolę użycia (wpływającą zarówno na dostęp do usług, jak i do danych użytkowników) dla obiektów śledzonych (ang. trackables), treści, zbiorów danych i scenariuszy; a także prywatność działań użytkowników. Tego typu dogłębna kontrola dostępu wymaga ciągłego zbierania szczegółowych informacji opisujących użytkowników końcowych, ich atrybutów, czy wzorców korzystania z usług, co z kolei generuje ryzyka związane z ich prywatnością. Co więcej, systemy AR z samej swojej natury są w znacznym stopniu podatne na ryzyka związane z prywatnością ze względu na ciągły tryb, w którym zbierają dane i na znaczne ilości przetwarzanych strumieni danych. Zatem drugim celem prowadzonych prac jest opracowanie metod umożliwiających zachowanie kontrolowanego balansu pomiędzy bezpieczeństwem wymagającym danych, a prywatnością użytkowników.
W ogólności w celu zapewnienia wysokiej jakości usług i dopasowania się do zmieniających się potrzeb swoich użytkowników inteligentne środowiska muszą w ciągły sposób pobierać dane, które bezpośrednio lub pośrednio odzwierciedlają preferencje użytkowników lub inne parametry wykorzystania usług. Dane te stanowią specyficzny przypadek danych wrażliwych niosących informacje o przestrzennych, czasowych, finansowych, behawioralnych wzorcach zachowań użytkowników, które w przypadku ujawnienia mogą odzwierciedlać szczegółowy obraz życia użytkownika w cyfrowej przestrzeni publicznej. Ochrona danych prywatnych jest szczególnie istotna podczas zautomatyzowanych negocjacji warunków korzystania z usługi, w których zaangażowanych jest wielu niezaufanych usługodawców, konsumentów usług czy operatorów płatności. Te wyzwania stanowią motywację do prowadzenia prac nad modelem „infrastruktury bezpieczeństwa jako usługi” w obszarze negocjowanych parametrów usług w inteligentnych przestrzeniach. Celem jest minimalizacja ryzyka naruszenia prywatności użytkowników ze strony usługodawców i atakujących podszywających się pod zwykłych użytkowników, a także ryzyka naruszenia prywatności wzorców płatności użytkowników ze strony operatorów płatności. Istotna jest też integracja z systemami anonimowych mikropłatności spełniającymi wymagania usług wszechobecnych.


e-Biznes i e-Administracja


Celem aktualnych badań z zakresu e-biznesu jest odkrycie i zrozumienie zależności, postaw oraz kryteriów, jakimi kierują się e-sprzedawcy przy akceptacji systemów e-płatności, z naciskiem na obszar e-płatności mobilnych. Prowadzone prace wymagają zebrania materiału empirycznego oraz opracowania nowych konstruktów, determinantów, moderatorów intencji, zmiennych objaśnianych i objaśniających w ramach nowego modelu typu TAM/UTAUT, a także przeprowadzenia badań statystycznych na bazie tych danych. W dalszej kolejności praca wymaga wnioskowania przez weryfikację lub falsyfikację stawianych hipotez na temat zachowania e-sprzedawców oraz ich wyborów ekonomicznych.

Badania z zakresu e-administracji dotyczą ekonomicznej analizy prawa, w szczególności prawa gospodarczego. Każda zmiana tego prawa pociąga za sobą zmiany w obciążeniach administracyjnych przedsiębiorstw, co ma istotne znaczenie dla efektywności ich funkcjonowania i w konsekwencji dla konkurencyjności całej gospodarki. Celem prowadzonych badań jest opracowanie metody oceny kosztów obciążeń administracyjnych przedsiębiorstw na etapie stanowienia prawa gospodarczego. Wybór najbardziej ekonomicznie uzasadnionego wariantu regulacji prawnej na tym etapie, a więc wyprzedzająco w stosunku do zastosowania prawa w praktyce gospodarczej, pozwala na uniknięcie błędów legislacyjnych i skuteczne obniżenie kosztów transakcyjnych przedsiębiorstw. Proponowane podejście polega na zastosowaniu informatycznej metody modelowania procesów biznesowych i ich zapisu w notacji BPMN (ang. Business Process Model and Notation). Procesy realizowane przez przedsiębiorstwa i administrację publiczną na skutek projektowanego aktu prawnego są kolejno: identyfikowane, modelowane, analizowane, przekształcane (reinżynieria procesu) i symulowane. Na tej podstawie można ilościowo ocenić koszty obciążeń administracyjnych przedsiębiorstw i wybrać wariant regulacji o najniższych kosztach.





Obszary badawcze w przeszłości


Wirtualne organizacje

IT-SOA: Nowe technologie informacyjne dla elektronicznej gospodarki i społeczeństwa infromacyjnego oparte na paradygmacie SOA

W KTI były prowadzone badania nad wirtualnymi organizacjami ze względu na ich duże znaczenie dla elektronicznej gospodarki opartej na wiedzy. Głównym celem tych badań było opracowanie nowych modeli, narzędzi i metod wspierających współpracę organizacji za pośrednictwem sieci komputerowych.

Wirtualna Organizacja (ang. Virtual Organization, VO) jest definiowana jako struktura obejmująca różne jednostki organizacyjne, utworzona w celu osiągnięcia określonego celu, np. biznesowego. Bazując na powyższej definicji wirtualnej organizacji wprowadzono pojęcie „Inkubatora Wirtualnych Organizacji (ang. Virtual Organization Breeding Environment, VOBE) jako „stowarzyszenia organizacji i powiązanych z nimi instytucji wspierających, powiązanych długoterminowymi umowami o współpracy, przyjmujących wspólne zasady działania w celu zwiększenia ich gotowości do współpracy w ramach wirtualnych organizacjach”. Głównymi celami inkubatora wirtualnych organizacji są: osiągnięcie wzajemnego zaufania pomiędzy organizacjami w celu ułatwienia ich współpracy w ramach wirtualnych organizacji, zmniejszenie kosztu i czasu poświęcanego na poszukiwanie potencjalnych partnerów do danej VO, pomoc w tworzeniu VO – w tym osiąganie porozumień pomiędzy partnerami i możliwość redefiniowania zasad działania danej VO w celu dostosowania jej do nowych wyzwań i okazji biznesowych.

Podczas gdy inkubatory wirtualnych organizacji są tworzone doraźnie, badania KTI koncentrowały się na Inkubatorach wirtualnych organizacji zorientowanych usługowo (ang. Service-Oriented Virtual Organization Breeding Environments, SOVOBE), które są zorganizowane w sposób systematyczny wokół pojęcia usługi. W ramach SOVOBE, usługi mogą być usługami sieciowymi, realizowanymi za pomocą szyny ESB (Enterprise Service Bus), jak również usługami wykonywanymi przez ludzi (organizacje).

Cele badań dotyczących SOVOBE były trojakie. Po pierwsze, chodziło o opracowanie nowatorskiej architektury i implementacji wzorcowej platformy programistycznej dla SOVOBE bazującej na SOA (Service Oriented Architecture), przy wykorzystaniu zalet koncepcji stanowiących podstawy SOA, w celu lepszego wsparcia VO, z takimi cechami jak:

  • Wielokrotne wykorzystanie usług – pojedyncza organizacja może udostępniać te same usługi w ramach wielu VO;
  • Abstrakcja usług – szczegóły implementacji usług oferowanych przez daną organizację w ramach określonej VO mogą być ukryte przed innymi organizacjami. Ukrycie implementacji pozwala chronić kapitał intelektualny organizacji przed konkurencją;
  • Odkrywalność usług – usługi świadczone przez organizacje w ramach SOVOBE są opisane, dzięki czemu serwisy i związane z nimi organizacje mogą być zidentyfikowane jako odpowiednie dla danego przedsięwzięcia;
  • Kompozycja usług – VO może oferować złożone usługi, będące kompozycją wielu usług oferowanych przez partnerskie VO i SOVOBE.

Drugim celem było opracowanie modeli i algorytmów dla tworzenia VO w ramach SOVOBE. SOVOBE oferuje swoim członkom aplikacje wspierające wyszukiwanie partnerów i usług odpowiednich dla danego przedsięwzięcia. Wyszukiwanie partnerów i usług na poziomie biznesowym jest złożonym problemem, który jest trudno zautomatyzować. Problem ten obejmuje następujące zagadnienia: ustalenie wymagań odnośnie do VO przez interesariuszy; określenie wymagań dla partnerów VO, ich usług biznesowych i procesów oferowanych klientom VO; zidentyfikowanie członków SOVOBE, którzy mogą odegrać określoną rolę w tworzonej VO, negocjacje i ustalenie zasad współpracy, analiza możliwych wariantów VO w zakresie zgodności z wymaganiami i efektywnością współpracy.

Trzecim celem było opracowanie modeli i algorytmów dla zaawansowanego wsparcia zwinnej (ang. agile) współpracy pomiędzy organizacjami należącymi do SOVOBE. Dawniej, współpraca pomiędzy organizacjami odbywała się na podstawie modeli, które oddawały strukturę interakcji pomiędzy osobami, organizacjami i oprogramowaniem. Kontekst społeczny, w ramach którego dany proces był przeprowadzany, nie był częścią takich modeli. W KTI zaproponowano koncepcję „protokołu społecznego”, w którym podjęto próbę połączenia modeli procesów z kontekstem społecznym, w ramach którego proces jest przeprowadzany. Kontekst społeczny ma znaczenie dla „zwinności” wirtualnej organizacji. Wirtualna organizacja jest zwinna jeśli ma zdolność szybkiej i taniej zmiany sposobu funkcjonowania. Proces zmiany działania wirtualnej organizacji w celu adaptacji do nowych warunków może być uproszczony dzięki wykorzystaniu kontekstu społecznego partnerów wirtualnej organizacji. Adaptacja do zmian często wymaga wykorzystania nowych zasobów. W sytuacji, gdy wydajność danego partnera wirtualnej organizacji ulega pogorszeniu, możliwym rozwiązaniem jest wyszukanie innej organizacji, w celu zastąpienia pierwszej. Kontekst społeczny partnerów VO może znaleźć zastosowanie w takiej sytuacji.



Elektroniczne negocjacje (komputerowe wspomaganie współpracy)


W takcie prowadzenia badań naukowych dotyczących elektronicznych negocjacji, KTI była zaangażowana w realizację projektu COSMOS w ramach 5. Programu Ramowego Unii Europejskiej.

Jednym z głównych osiągnięć w obszarze elektronicznych negocjacji jest opracowanie koncepcji wieloaspektowej analizy elektronicznych negocjacji, która pozwala kontrahentom znajdującym się w odległych od siebie miejscach negocjować warunki kontraktów.

W erze globalizacji przedsiębiorstwa muszą prowadzić negocjacje w skali globalnej. Wysoki koszt związany z realizacją bezpośrednich spotkań może być zniwelowany dzięki zastosowaniu Internetu jako medium telekomunikacyjnego. Konieczne jest jednak opracowanie narzędzi, które umożliwią kontrahentom (którymi mogą być zarówno małe i średnie przedsiębiorstwa, jak i globalne korporacje) przeprowadzanie procesów negocjacji w sposób wydajny, przy założeniu, że liczba uczestników negocjacji może być nieograniczona. Głównym wyzwaniem związanym z tworzeniem systemów elektronicznych negocjacji jest zapewnienie wysokiej współbieżności przetwarzania (możliwość negocjacji jednego kontraktu przez nieograniczoną liczbę kontrahentów) i umożliwienie negocjowania parametrów mierzalnych (np. cena, ilość itp.) i niemierzalnych (np. klauzule prawne).

Koncepcja wieloaspektowej analizy elektronicznych negocjacji opiera się na dwóch spostrzeżeniach. Po pierwsze, ze względu na dużą objętość przetwarzanych danych jest konieczne zapewnieniu sztucznych, uproszczonych wizualizacji procesu negocjacji. Po drugie, związki pomiędzy ofertami i odpowiedziami na oferty zawierają informacje łatwiejsze w analizie niż treść klauzul, ponieważ atrybuty mogą być niemierzalne, a ich semantyka może być nieznana.

Bazując na opisanej koncepcji, zaimplementowano prototypowy system do przeprowadzania elektronicznych negocjacji [128]. Skonstruowany system pozwala negocjować pojedynczy kontrakt dużej liczbie kontrahentów oraz pozwala przeprowadzać analizy różnych aspektów procesu negocjacyjnego przy uwzględnieniu wielu kryteriów.

Dalsze prace koncentrowały się na badaniu dynamiki grup w procesach elektronicznych negocjacji. W trakcie przeprowadzania elektronicznych negocjacji na szeroką skalę można zaobserwować istnienie różnych grup kontrahentów. Grupy mogą podlegać ewolucji: mogą dzielić się, łączyć, mogą powstawać podgrupy itp. Zaproponowano sposób modelowania grup uczestniczących w procesach elektronicznych negocjacji, uwzględniający dynamikę tych grup. W zaproponowanym modelu proces negocjacji jest strukturyzowany przy wykorzystaniu protokołów negocjacji. Protokoły negocjacji określają sposób, w jaki strony negocjacji mogą działać i komunikować się ze sobą, przy uwzględnieniu grupy, w której się znajdują i roli w tej grupie. Opracowane prototypowy system DynG, umożliwiający przeprowadzanie elektronicznych negocjacji i uwzględniający dynamikę grup. System pozwala dużej liczbie negocjatorów pracować w ramach wielu grup. System wykorzystuje protokoły negocjacyjne, pozwalając każdej grupie działać zgodnie z określonym protokołem.



Systemy agentowe

Katedra KTI
Systemy agentowe były ważnym obszarem badawczym KTI. Agent programowy jest autonomicznym programem, który wykonuje określone zadania w określonym miejscu i czasie zgodnie z poleceniami swojego właściciela. Na system agentowy zaimplementowany w ramach prac KTI składa się agent serwera i baza danych modelująca agentów (na jednego użytkownika, zwanego „właścicielem agenta”, przypada jeden agent). W zależności od preferencji właściciela, dany agent może się z nim kontaktować za pośrednictwem wiadomości SMS lub email przy wykorzystaniu języka wzorowanego na języku naturalnym bądź za pośrednictwem technologii WAP/WWW. System jest wyposażony w wielopoziomowe systemy zapewniające bezpieczeństwo, zapewniające zarówno ochronę od strony zewnętrznej (uzyskanie dostępu wymaga podania numeru telefonu i hasła; ochronie przed dostępem podlega serwer jako całość oraz pojedyncze usługi), jak również wewnątrz (w celu wykorzystania określonych usług jest konieczne posiadanie odpowiednich uprawnień). Newralgiczne informacje przechowywane przez agenta mogą być szyfrowane, co podnosi poziom bezpieczeństwa dzięki utrudnianiu prób uzyskania nieautoryzowanego dostępu ze strony innych użytkowników (w tym – administratorów systemu).

Technologia agentowa dla urządzeń mobilnych opracowana w KTI pozwala odwrócić proces przesyłania informacji pomiędzy Internetem a użytkownikami. Obecnie użytkownik poszukujący określonej informacji przegląda zasoby Internetu w celu jej znalezienia. Technologia agentowa pozwala odwrócić ten proces: jeśli wśród zasobów Internetowych pojawiła się interesująca informacja, użytkownik zostanie o tym poinformowany przez agenta programowego za pośrednictwem posiadanego urządzenia mobilnego. Kluczowe jest określenie, jaka informacja jest interesująca. Należy zauważyć, że: po pierwsze, kryteria wyznaczające interesujące informacje mogą być inne dla każdego użytkownika; po drugie, zainteresowania pojedynczego użytkownika mogą ulegać zmianie; po trzecie, informacje uważane za interesujące mogą pochodzić z różnych źródeł. Ponadto każdemu użytkownikowi należy prezentować informacje w sposób dopasowany do jego urządzenia i ustawień narodowych. Z tych powodów usługi udostępniane przez agenta serwerowego stworzonego przez KTI są następujące:

  • personalizacja na szeroką skalę – usługa może być świadczona milionom użytkowników i oferować każdemu z nich spersonalizowane informacje, będące obiektem jego zainteresowań;
  • indywidualny asynchronizm– w momencie, gdy informacja zamieszczona w Internecie ulega zmianie, a na serwerze jest zarejestrowany co najmniej jeden użytkownik zainteresowany tą informacją, do urządzenia mobilnego tego użytkownika jest przesyłana informacja w odpowiedniej postaci;
  • zautomatyzowane zarządzanie – użytkownicy usługi mają możliwość redefiniowania kryteriów, na podstawie których są przesyłane do nich informacje, za pośrednictwem urządzenia mobilnego lub komputera z dostępem do Internetu. Proces ten odbywa się bez udziału administratora systemu.

Można wyróżnić dwie grupy usług, które mogą być utworzone przy wykorzystaniu technologii agentowej: usługi informacji osobistej oraz usługi komunikacji między grupami użytkowników.
Usługi informacji osobistej mogą być wykorzystywane w takich dziedzinach jak: bankowość (powiadomienia dotyczące wpływów, filtrowane w sposób inteligentny przez agenta), sport (powiadomienia o wydarzeniach sportowych, np. strzelone bramki w trakcie spotkań piłkarskich, ale tylko tych, którymi interesuje się użytkownik), ochrona zdrowia (telemedycyna – komunikacja pomiędzy użytkownikiem a automatycznym lub półautomatycznym systemem ochrony zdrowia), kultura (powiadomienia o wydarzeniach kulturowych z dziedzin, którymi interesuje się użytkownik), zakupy (informacje o promocjach), logistyka (wsparcie dla przedstawicieli handlowych).

Usługi komunikacji między grupami użytkowników stanowią drugą ważną grupę usług, które można zbudować przy wykorzystaniu agenta serwerowego. Usługi takiego typu są współdzielone przez wielu użytkowników (posiadających urządzenia mobilne). Grupa takich użytkowników może zostać utworzona ad-hoc w dowolnym momencie. Technologia agentowa cechuje się zaletami dotyczącymi świadczenia usług dla grup o dużym stopniu zmienności liczby użytkowników oraz dużym zróżnicowaniu preferencji (związanych z odbieranymi informacjami) wśród użytkowników pojedynczej grupy. Takie zróżnicowanie ma miejsce w przypadku tworzenia zespołów uczniów, turystów i zespołów projektowych. Systemy agentowe umożliwiają tworzenie gier masowych adresowanych do posiadaczy urządzeń mobilnych.

Działanie systemu zostało przetestowane dla obciążenia wynikającego z obsługi 50 000 użytkowników (wygenerowanych automatycznie), w trakcie działania przez 1000 godzin. W trakcie trwania testu zostało wysłanych 50 000 000 wiadomości SMS.




Inteligentne aplikacje wielourządzeniowe


Problemem związanym ze zwiększająca się liczbą urządzeń działających w ramach Internetu Rzeczy jest określenie, w jaki sposób użytkownicy mogą wykorzystać urządzenia, które ich otaczają.

Celem badań KTI w tym obszarze było opracowanie rozwiązań pozwalających tworzyć aplikacje, które mogłyby być wykorzystywane za pośrednictwem dowolnego z urządzeń otaczających użytkownika. Dawniej były wykorzystywane aplikacje dedykowane dla urządzeń określonego typu lub posiadające określony system operacyjny. Problemem był brak możliwości utworzenia pojedynczej aplikacji, która mogłaby być uruchamiana na wszystkich dostępnych typach urządzeń. Jednym z możliwych rozwiązań tego problemu jest oddzielnie aplikacji od urządzeń, które pozwalają na uzyskanie dostępu do aplikacji. Takie podejście jest wykorzystywane w przypadku aplikacji internetowych, które pozwalają użytkownikowi na dostęp do aplikacji i danych w jednolity sposób na każdym urządzeniu, które posiada przeglądarkę internetową. Jednak nawet takie rozwiązanie ma wiele ograniczeń. Aplikacje internetowe traktują różne urządzenia co najwyżej jak różne ekrany i nie biorą pod uwagę możliwości charakterystycznych dla poszczególnych urządzeń ani informacji kontekstowej, którą mogą dostarczyć te urządzenia. Na przykład, istnieje możliwość wyświetlenia strony internetowej przedstawiającej program telewizyjny zarówno na ekranie telewizora, jak i na urządzeniu typu smartfon, ale taka aplikacja nie pozwoli na użycie ekranu dotykowego i gestów w celu zmiany informacji wyświetlanych na ekranie telewizora.

W przypadku posiadania grupy urządzeń komunikujących się za pośrednictwem Internetu Rzeczy, pojawia się możliwość współdzielenia pomiędzy nimi informacji oraz magazynowania informacji pochodzących z dostępnych czujników. To znaczy, że istnieje możliwość gromadzenia informacji i zapewnienia, że aplikacja będzie „inteligentna” (świadoma kontekstu), utrzymania stanu aplikacji w ramach wielu różnych urządzeń i wykorzystania więcej niż jednego urządzenia w celu użytkowania aplikacji. Technologie pozwalające na komunikację pomiędzy urządzeniami i różnego rodzaju czujniki są już dostępne. Problemem pozostaje zbudowanie aplikacji, które działałyby zgodnie z opisaną koncepcją oraz zapewnienie kompatybilności obecnych aplikacji z taką koncepcją.

Badania przeprowadzone w KTI w obszarze inteligentnych aplikacji wielo-urządzeniowych koncentrowały się na następujących zagadnieniach:

  • projektowanie i implementacja aplikacji, do których można by uzyskać dostęp za pomocą każdego podzbioru urządzeń dostępnych w danym momencie dla użytkownika,
  • zapewnienie dostępu do informacji o kontekście działania przy jednoczesnym zapewnieniu prywatności i ochrony danych użytkownika,
  • zapewnienie praw posiadania urządzeń i praw do korzystania z aplikacji.



Transformacja łańcuchów dostaw w systemach logistycznych pod wpływem technologii elektronicznego biznesu


KTI była zaangażowana w zastosowanie technologii elektronicznego biznesu do zarządzania łańcuchem dostaw.

Po okresie gwałtownego rozwoju technologii elektronicznego biznesu w latach ’90 XX wieku, nastąpił okres wykorzystania tych technologii w celu przeprowadzania procesów biznesowych. Możliwości jakie dostarcza Internet – natychmiastowa wymiana i współdzielenie informacji pomiędzy partnerami biznesowymi – zmusiły przedsiębiorstwa do weryfikacji procesów biznesowych przeprowadzanych w ramach realizacji łańcucha dostaw i optymalizacji procesów w oparciu o nowe kryteria i parametry, do których wcześniej nie było dostępu.

Badania KTI koncentrowały się na potencjalnej możliwości transformacji takich procesów biznesowych. Spośród transformacji, których wykonanie jest technicznie możliwe, badania KTI koncentrują się na takich, których wykonanie jest uzasadnione z ekonomicznego punktu widzenia przy uwzględnieniu charakterystyki rynków lokalnych. Ostatnimi wynikami badań KTI są ilościowe i jakościowe modele różnych wariantów transformacji łańcuchów dostaw wykorzystujące technologie elektronicznego biznesu. Otrzymane rezultaty teoretyczne zostały zweryfikowane w sposób praktyczny przez jednego z partnerów biznesowych KTI – firmę Philips Lighting Poland.

Publikacje w dziedzinie zarządzania łańcuchami dostaw i elektronicznego biznesu
Nagrody otrzymane za osiągnięcia w dziedzinie zarządzania łańcuchami dostaw i elektornicznego biznesu

Współpraca z partnerami biznesowymi

Partnerem przemysłowym KTI w dziedzinie zarządzania łańcuchami dostaw i elektronicznego biznesu była firma Philips Lighting Poland (PLP) – największe na świecie centrum produkcyjne I logistyczne firmy Royal Philips Lighting Company, światowego lidera w dziedzinie oświetlenia.

Współpraca pomiędzy KTI i PLP rozpoczęła się w 1998 roku. W tym czasie firma PLP była już doskonale zorganizowana i wykorzystywała wewnętrzny system logistyki, ale system transportu do klientów zewnętrznych posiadał wiele wad. PLP skierowała do KTI prośbę o opracowanie modeli biznesowych, które poprawiłby ówczesną sytuację. KTI zaproponowała szereg możliwych transformacji zewnętrznego łańcucha dostaw PLP, wykorzystujących możliwości technologii elektronicznego biznesu. Po przeprowadzeniu dogłębnej analizy, KTI skoncentrowała działania na modyfikacji procesów biznesowych związanych z prowadzeniem sprzedaży oraz rozwojem i wdrażaniem Internetowego systemu e-Order Management System (e-MAX).

Pierwsze wydanie systemu e-MAX, skierowane wyłącznie do polskich użytkowników, zostało wdrożone w 1999 roku. Aktualna wersja oprogramowania, nazywana e-MAX-ML (gdzie ML oznacza „multilingual”) obsługuje klientów z całego regionu podlegającego pod PLP , czyli z 27 krajów z centralnej i wschodniej Europy, środkowej Azji i środkowego Wschodu.

System e-MAX został udostępniony wybranym partnerom biznesowym PLP w celu umożliwienia współpracy zgodnie z nowatorskim sposobem zarządzania. System e-MAX pozwala partnerom PLP nie tylko na składanie zamówień, ale przede wszystkim, pozwala monitorować i negocjować warunki realizacji zamówienia. W ramach podejścia zastosowanego w systemie e-MAX, wszystkie zamówienia są traktowane jako proces ciągłych negocjacji pomiędzy dwoma stronami: producentem (w przypadku programu e-MAX: PLP) i konsumentem (kontrahenci PLP). Negocjacje mogą dotyczyć dostępności produktu, wartości i objętości zamówionych towarów oraz warunków finansowych stawianych przez konsumenta. Przykładowo, niektóre produkty mogą być dostępne natychmiast (jeśli znajdują się w magazynie) lub po upływie czasu potrzebnego na ich sprowadzenie (jeśli w magazynie są braki); objętość zamówionych towarów musi być dostosowana do możliwości transportowych pojazdów; wartość zamówienia nie może przekraczać możliwości płatniczych konsumenta.



Multimedialne systemy wyszukiwawcze



Kolejny obszar badawczy KTI stanowił odpowiedź na bezprecedensowy rozwój ilości treści dostępnych w Internecie oraz potrzebę opracowania zaawansowanych metod wyszukiwania informacji z dużą skutecznością i precyzją oraz efektywnych sposobów prezentacji wyszukanych informacji użytkownikom.

Metoda wyszukiwania TST

TSTSM jest nową metodą wyszukiwania informacji na podstawie powiązań tematycznych, przestrzennych i czasowych. Głównym elementem tej metody jest miara podobieństwa zasobów TST. Na miarę TST składają się trzy czynniki: podobieństwo semantyczne, odległość w czasie oraz odległość w przestrzeni. Miara TST jest wykorzystywana do oceny istotności źródła informacji w kontekście zapytania użytkownika. W metodzie TST wymiary semantyczny, czasowy i przestrzenny są oceniane łącznie. Dzięki takiemu podejściu metoda TST jest odpowiednia dla analizowania źródeł, które są zmienne w czasie. Dzięki zastosowaniu zbiorów rozmytych, metoda TST może być stosowana do analizy niedokładnych danych, które często występują w opisach cech czasowych i geograficznych obiektów. Wyniki wyszukiwania otrzymane dzięki zastosowaniu metody TST są prezentowane w formie mapy lub listy rankingowej. Ważną cechą metody TST jest jej niezależność od struktury wykorzystywanego źródła danych, co pozwala na przeszukiwanie istniejących zbiorów bez potrzeby modyfikowania metody.