Dźwięk inaczej rozchodzi się w jaskini, a inaczej – w hali. Zespół z Akademii Górniczo-Hutniczej w Krakowie pracuje nad tym, by dźwięki w grach komputerowych były precyzyjnie modyfikowane w zależności od przestrzeni, w jakiej znajdzie się wirtualny bohater.
Badacze z AGH pracują nad tym, by ruch postaci w przestrzeni można było nie tylko zobaczyć na ekranie, ale i by można było go usłyszeć. „Twórcy gier zwykle stawiają na grafikę, a dźwięk jest tylko jej dopełnieniem. My chcemy, by również dźwięk i sposób, w jaki on się rozchodzi, były dla gracza źródłem informacji” – mówi kierownik projektu RAYAV, Bartosz Ziółko z AGH. Wyjaśnia też, że w grach komputerowych dźwięk zwykle w niewielkim stopniu zależy od otoczenia. Twórcy gier na dźwięk nakładają najwyżej proste efekty, które mają świadczyć o tym, np. czy dana postać jest w pokoiku czy w hali. „W naszym przypadku dźwięk będzie modyfikowany w zależności od dokładnego rozmiaru hali, od tego, w którym miejscu jest źródło dźwięku i gdzie jest słuchacz” – dodaje Ziółko.
„To projekt naukowy, ale nastawiony na wdrożenie – mówi kierownik projektu. – Chodzi o to, by zautomatyzować część związanej z dźwiękiem pracy przy produkcji gier komputerowych. Teraz projektant dźwięku musi bardzo wiele efektów modyfikujących dźwięki ustawiać ręcznie na planszy gry i ustalać moment ich uruchomienia. Nasze rozwiązanie wprowadzi system obliczeniowy, który będzie modyfikował dźwięk w zależności od tego, jak daleko się jest od jego źródła, czy jak rozchodzi się dźwięk w pomieszczeniu. To byłoby obliczane na bieżąco, w trakcie gry. Chodzi o bardziej realistyczne oddanie przestrzeni.” Taki system sprawiłby, że raz nagrany głos mógłby być odtworzony w dowolnym pomieszczeniu w grze i za każdym razem będzie się rozchodził w sposób odpowiedni dla danego otoczenia.
„To, co słyszymy, to nie tylko bezpośredni dźwięk, ale również jego odbicie od ścian, podłoża czy sufitu. A także odbicia odbić, z których każde dociera do słuchacza z innym opóźnieniem” – opowiada Bartosz Ziółko. Dodaje, że w szczerym polu odbić nie ma, ale im mniejsze pomieszczenie, tym więcej jest odbić, które tworzą pogłos. Podobną technikę wykorzystuje się w filmach. „Ale w filmach od razu wiadomo, co się będzie działo, a w grze gracz może pójść w którą stronę chce. Nie możemy więc z góry wyliczyć, co się będzie działo. Nasz system doda efekt dopiero, kiedy gracz podejmie decyzję, co zrobić” – mówi badacz z AGH.
Ziółko podkreśla, że technika może posłużyć nie tylko w tworzeniu nowego rodzaju zadań w grach, ale nawet całych gier. Zdradza, że na AGH w ramach pracy dyplomowej specjalnie pod system tworzona jest gra. Gracz używając systemu kinect będzie poruszał się po labiryncie. Drogę znajdzie nie dzięki informacjom wizualnym, ale zdobytym dzięki… pogłosowi. Program można byłoby wykorzystać również w architekturze. Dzięki temu można byłoby np. zaprojektować wirtualną filharmonię i jeszcze zanim powstanie, posłuchać, jak będzie się w niej rozchodził dźwięk. Takie programy istnieją, ale zdaniem badacza mogą być usprawnione.
Bartosz Ziółko przyznaje, że na razie obliczenia, które wykonuje ich system, zużywają zbyt dużo pamięci, by można go stosować na zwykłych komputerach. „Ale z każdym miesiącem nasz program przyspiesza” – zaznacza badacz i tłumaczy, że do czerwca przyszłego roku, kiedy kończy się projekt, system powinien być gotowy do aplikacji w grach.
Projekt badawczy RAYAV (Raytracer Audio i Video) realizowany jest przez AGH i firmę Teyon w programie INNOTECH Narodowego Centrum Badań i Rozwoju.
Artykuł pochodzi z serwisu PAP-Nauka w Polsce
Foto: Wikipedia