TWOJA PRZEGLĄDARKA JEST NIEAKTUALNA.

Wykryliśmy, że używasz nieaktualnej przeglądarki, przez co nasz serwis może dla Ciebie działać niepoprawnie. Zalecamy aktualizację lub przejście na inną przeglądarkę.

Katedra Informatyki Stosowanej

Kierunki badań

Kolektywna inteligencja obliczeniowa

Kolektywna inteligencja obliczeniowa (ang. Computational Collective Intelligence, CCI) jest najczęściej rozumiana jako dział sztucznej inteligencji zajmujący się metodami miękkich obliczeń, które ułatwiają podejmowanie grupowych decyzji oraz przetwarzanie wiedzy przez autonomiczne jednostki działające w środowiskach rozproszonych. Systemy webowe, sieci społeczne oraz systemy wieloagentowe bardzo często potrzebują tych narzędzi do osiagania stanów spójnej wiedzy, rozwiązywania konfliktów I podejmowania decyzji.

Systemy zarządzania wiedzą

Zarządzanie wiedzą (ang. Knowledge Management, KM) to zespół sformalizowanych sposobów gromadzenia i wykorzystywania wiedzy formalnej oraz wiedzy cichej uczestników organizacji (np. pracowników firmy). Zarządzanie wiedzą, to próba jak najlepszego wykorzystania wiedzy, która jest dostępna w organizacji, tworzenie nowej wiedzy oraz zwiększanie jej zrozumienia. Z kolei Knowledge Management System (KMS) to w wąskim znaczeniu system informatyczny, którego celem jest wsparcie zarządzania wiedzą (ZW) w organizacji, w szerokim znaczeniu ogół działań (w tym system informatyczny, system motywacyjny, system pomiarowy), których celem jest wsparcie ZW w organizacji.

Agenty i systemy wieloagentowe

System wieloagentowy (ang. multi-agent system) to system złożony z komunikujących i współpracujących między sobą agentów, realizujących wspólne cele. Systemy wieloagentowe często stosowane są w sytuacjach, gdy trzeba rozwiązać problemy o charakterze rozproszonym lub złożonych obliczeniowo, np. wyszukiwanie informacji w sieci, zarządzanie sieciami telekomunikacyjnymi, symulacja rynku, wspomaganie zarządzania w przedsiębiorstwie i kontrola ruchu lotniczego. Z kolei agenta można zdefiniować jako jednostkę, działającą w pewnym środowisku, zdolną do komunikowania się, monitorowania swego otoczenia i podejmowania autonomicznych decyzji, aby osiągnąć cele określone podczas jej projektowania lub działania. Agent powinien charakteryzować się następującymi cechami:

  • autonomicznością (zdolność podejmowania samodzielnych decyzji),
  • komunikatywnością (umiejętność komunikacji z innymi agentami i użytkownikiem),
  • percepcją (jest to zdolność do postrzegania i reagowania na zmiany środowiska).

Dodatkową często wykorzystywana cechą jest mobilność. Inne popularne cechy agenta:

  • zdolność do wykorzystywania wiedzy,
  • tolerancyjność na błędy, złe wejścia (input),
  • zdolność do używania symboli i abstrakcji,
  • zdolność do adaptacji w celu osiągnięcia celu,
  • zdolność do uczenia się,
  • zdolność do przeprowadzania operacji w czasie rzeczywistym,
  • zdolność do komunikacji w języku naturalnym.

Rekomendacja i personalizacja w systemach webowych

Głównym celem systemów rekomendacyjnych jest dostarczenie spersonalizowanej informacji dla zróżnicowanych użytkowników systemów webowych. Systemy tego typu mają zastosowanie w wielu dziedzinach, takich jak: filtrowanie wiadomości, rekomendacja stron webowych, spersonalizowanych wiadomości prasowych, rekomendacji w zakresie muzyki, filmów, turystyki i zakupów, filtrowania poczty elektronicznej, rekomendacji kursów edukacyjnych, rekomendacji interfejsów użytkownika, wspomagania negocjacji, i in. Przy tworzeniu systemów rekomendacyjnych rozpatruje się dwa ich główne wymiary: modelowanie użytkownika i wykorzystanie modelu. W ramach modelowania wyróżnia się problemy reprezentacji i utrzymania profilu użytkownika oraz zastosowane techniki uczenia profilu. Natomiast problem wykorzystania modelu obejmuje: metody filtrowania informacji, metody przyporządkowania profili oraz techniki adaptacji.

Złożone i hybrydowe modele inteligencji obliczeniowej

Głównym celem badań jest opracowanie algorytmów budowy zespołów modeli statystycznych klasyfikatorów/regresorów (ang. Ensemble Models), które posiadają lepsze zdolności predykcyjne aniżeli modele składowe. W wypadku modeli złożonych: zespołów modeli i modeli hybrydowych, podstawowe znaczenie ma rozstrzygnięcie czy zastosować modele homogeniczne (tego samego typu) czy heterogeniczne (różnorodnych typów, o różnym obciążeniu i różnych własnościach), i które rodzaje modeli bazowych są najbardziej przydatne. Ponadto należy określić jaką liczbę prób należy przeprowadzić i na jakich zbiorach danych, ile modeli składowych utworzyć, jak zapewnić różnorodność modeli składowych, jaką metodą zagregować ich wyniki, jakich testów statystycznych, służących do porównania wielu modeli na wielu zbiorach danych, użyć do ewaluacji uzyskanych wyników. Problemem do rozwiązania jest równoczesne zapewnienie odpowiedniej stabilności modeli tak, by nieznaczne zmiany, któregokolwiek z parametrów nie powodowały znaczących zmian wyników predykcji. Kolejnym zagadnieniem jest osiągnięcie optymalnej równowagi pomiędzy dokładnością a interpretowalnością modeli, co ma duże znaczenie praktyczne i jest szczególnie trudne do uzyskania w przypadku rozwiązań hybrydowych i wielomodelowych. Głównymi metodami budowy zespołów modeli są: bagging, boosting, stacking, subsampling, random subspaces, mixtures of experts i inne.

Semantyczne wyszukiwanie informacji

Tradycyjne metody wyszukiwania informacji nie koniecznie są odpowiednie dla wyszukiwania i analizy współczesnej WWW. W naszych badaniach skupiamy się na metodach wyszukiwania dostosowanych do specyfiki współczesnych (Web 2.0), a nawet przyszłych (Web 3.0) silników wyszukiwania i analizy WWW. Dotyczy to całego spektrum technik: począwszy od analizy struktury linków aż po wykorzystanie semantyki relacji w sieciach społecznych. W naszych badaniach przewijają się takie paradygmaty i technologie, jak:

  • Semantic Web (OWL),
  • Linked Data (RDF. SPARQL),
  • Ontologie WWW (FOAF),
  • Agregacja danych z WWW.

Przetwarzanie multimediów

Od momentu pierwszych zastosowań hipertekst wykorzystany był w połączeniu z multimediami (hipermedia), dlatego różne rodzaje informacji multimedialnych są kluczowymi elementami systemów informacyjnych na platformie WWW. Nasze badania obejmują następujące aspekty przetwarzania takiej informacji:

  • Przetwarzania sygnału dźwiękowego,
  • Rozpoznawanie obrazu i grupowanie sekwencji wideo,
  • Kompresja stratna i bezstratna,
  • Odtwarzania niezależne od platformy.

Analiza i poprawa wydajności systemów

Wydajność i czas reakcji systemu to zazwyczaj priorytetowe kwestie dla użytkowników, szczególnie w środowisku WWW. Stały rozwój systemu powinien być zawsze prowadzony równolegle z analizą wydajności. Nasze badania w tej dziedzinie obejmują:

  • Techniki buforowania treści,
  • Testy użyteczności,
  • Algorytmy indeksowania treści,
  • Techniki optymalizacji w środowisku WWW.

Metodologie e-Learningu

Współczesny e-learning (2.0) koncentruje się głównie na nauczaniu w wykorzystaniem narzędzi technologii informacyjnych. Korzystanie z platformy moodle (StOPKa3) jako podstawowego narzędzia w nauczaniu jest dla nas inspiracją dla szukania nowych technik i zastosowań narzędzi współpracy online'owej. Nasze obszary badawcze w tej dziedzinie obejmują:

  • Paradygmaty zastosowań technik współpracy w trybie online, takich jak wiki czy wideokonferencje,
  • Systemy zarządzania nauczaniem (LMS) oraz systemy zarządzania materiałami dydaktycznymi (LCMS),
  • Techniki cyfrowej dokumentacji, jak screencast (z oknem wideo narratora) czy slajdy zrzutów ekranowych (z opisem lub narracją),
  • Egzaminowanie w oparciu o testy wielokrotnego wyboru.

Inżynieria oprogramowania i nauka o danych (ang. data science)

Nasze badania obejmują m.in. zagadnienia związane z:

  1. Inżynierią oprogramowania np.:
    • Ocena jakości oprogramowania.
    • Ocena jakości testów (np. z wykorzystaniem testowania mutacyjnego).
    • Pomiary i poprawa procesów wytwarzania oprogramowania w środowisku przemysłowym/biznesowym.
    • Zwinne eksperymenty w środowisku przemysłowym (umożliwiające porównanie alternatywnych rozwiązań, praktyk, narzędzi w realnym środowisku)
    • (Zwinne) Metodyki i praktyki inżynierii oprogramowania.
    • Nowoczesne narzędzia inżynierii oprogramowania.​​
  2. Zastosowaniem metod sztucznej inteligencji/uczenia maszynowego (AI/ML) np. w postaci modeli predykcji:
    • Predykcja (miejsc występowania) defektów oprogramowania.
    • Predykcja podejrzanych fragmentów kodu/brzydkich zapachów kodu.
    • Predykcja czasu realizacji zadań.
  3. Systematyczne przeglądy literatury i istniejących rozwiązań odpowiadające na najważniejsze problemy zaistniałe w realnym środowisku przemysłowym/biznesowym (ang. Evidence-Based Software Engineering, Systematic Reviews, Systematic Mapping Studies, Rapid Reviews).
Politechnika Wrocławska © 2024

Nasze strony internetowe i oparte na nich usługi używają informacji zapisanych w plikach cookies. Korzystając z serwisu wyrażasz zgodę na używanie plików cookies zgodnie z aktualnymi ustawieniami przeglądarki, które możesz zmienić w dowolnej chwili. Ochrona danych osobowych »

Akceptuję