System Sematycznej Orientacji w Przestrzeni - podsystem interakcji głosowej i przetwarzania mowy

Prelegent: 

Mgr Marzena Halama

Data: 

15/09/2025 - 13:30

Podczas seminarium zaprezentowane zostaną wyniki realizacji projektu badawczego, którego celem było opracowanie podsystemu głosowej interakcji człowiek-robot. Zrealizowany system integruje nowoczesne technologie przetwarzania mowy, rozpoznawania i generowania odpowiedzi za pomocą dużych modeli językowych (LLM, np. GPT-4). W trakcie wystąpienia omówione zostaną m.in.: zastosowane metody automatycznego rozpoznawania mowy i ich skuteczność w warunkach akustycznych o różnym poziomie zakłóceń, odpowiedź na pytanie badawcze dotyczące zdolności modeli LLM do zachowania trafności odpowiedzi mimo niepełnego zrozumienia wypowiedzi użytkownika.

Historia zmian

Data aktualizacji: 04/09/2025 - 10:53; autor zmian: Marzena Halama (mhalama@iitis.pl)

Podczas seminarium zaprezentowane zostaną wyniki realizacji projektu badawczego, którego celem było opracowanie podsystemu głosowej interakcji człowiek-robot. Zrealizowany system integruje nowoczesne technologie przetwarzania mowy, rozpoznawania i generowania odpowiedzi za pomocą dużych modeli językowych (LLM, np. GPT-4). W trakcie wystąpienia omówione zostaną m.in.: zastosowane metody automatycznego rozpoznawania mowy i ich skuteczność w warunkach akustycznych o różnym poziomie zakłóceń, odpowiedź na pytanie badawcze dotyczące zdolności modeli LLM do zachowania trafności odpowiedzi mimo niepełnego zrozumienia wypowiedzi użytkownika.

Data aktualizacji: 04/09/2025 - 10:52; autor zmian: Marzena Halama (mhalama@iitis.pl)

Podczas seminarium zaprezentowane zostaną wyniki realizacji projektu badawczego, którego celem było opracowanie podsystemu głosowej interakcji człowiek-robot. Zrealizowany system integruje nowoczesne technologie przetwarzania mowy, rozpoznawania i generowania odpowiedzi za pomocą dużych modeli językowych (LLM, np. GPT-4). W trakcie wystąpienia omówione zostaną m.in.: zastosowane metody automatycznego rozpoznawania mowy i ich skuteczność w warunkach akustycznych o różnym poziomie zakłóceń, odpowiedź na pytanie badawcze dotyczące zdolności modeli LLM do zachowania trafności odpowiedzi mimo niepełnego zrozumienia wypowiedzi użytkownika.

Data aktualizacji: 04/09/2025 - 09:37; autor zmian: Marzena Halama (mhalama@iitis.pl)

Podczas seminarium zaprezentowane zostaną wyniki realizacji projektu badawczego, którego celem było opracowanie podsystemu głosowej interakcji człowiek-robot. Zrealizowany system integruje nowoczesne technologie przetwarzania mowy, rozpoznawania i generowania odpowiedzi za pomocą dużych modeli językowych (LLM, np. GPT-4). W trakcie wystąpienia omówione zostaną m.in.: zastosowane metody automatycznego rozpoznawania mowy i ich skuteczność w warunkach akustycznych o różnym poziomie zakłóceń, odpowiedź na pytanie badawcze dotyczące zdolności modeli LLM do zachowania trafności odpowiedzi mimo niepełnego zrozumienia wypowiedzi użytkownika.

Data aktualizacji: 03/09/2025 - 13:13; autor zmian: Zbigniew Puchała (zbyszek@iitis.pl)

Podczas seminarium zaprezentowane zostaną wyniki realizacji projektu badawczego, którego celem było opracowanie podsystemu głosowej interakcji człowiek-robot. Zrealizowany system integruje nowoczesne technologie przetwarzania mowy, rozpoznawania i generowania odpowiedzi za pomocą dużych modeli językowych (LLM, np. GPT-4). W trakcie wystąpienia omówione zostaną m.in.: zastosowane metody automatycznego rozpoznawania mowy i ich skuteczność w warunkach akustycznych o różnym poziomie zakłóceń, odpowiedź na pytanie badawcze dotyczące zdolności modeli LLM do zachowania trafności odpowiedzi mimo niepełnego zrozumienia wypowiedzi użytkownika.

Data aktualizacji: 03/09/2025 - 13:02; autor zmian: Łukasz Zimny (lzimny@iitis.pl)

Podczas seminarium zaprezentowane zostaną wyniki realizacji projektu badawczego, którego celem było opracowanie podsystemu głosowej interakcji człowiek-robot. Zrealizowany system integruje nowoczesne technologie przetwarzania mowy, rozpoznawania i generowania odpowiedzi za pomocą dużych modeli językowych (LLM, np. GPT-4). W trakcie wystąpienia omówione zostaną m.in.: zastosowane metody automatycznego rozpoznawania mowy i ich skuteczność w warunkach akustycznych o różnym poziomie zakłóceń, odpowiedź na pytanie badawcze dotyczące zdolności modeli LLM do zachowania trafności odpowiedzi mimo niepełnego zrozumienia wypowiedzi użytkownika.