2026/04/16
Dr. Eli Shlizerman 氏(ワシントン大学)によるオープンセミナーを開催しました

2026年4月13日(月)、筑波大学 国際統合睡眠医科学研究機構(WPI-IIIS)にて、
ワシントン大学の Dr. Eli Shlizerman 氏をお招きし、オープンセミナーを開催しました。
Dr. Shlizerman 氏は、当研究室の共同研究者であり、NeuroAI 分野の研究室を主宰されています。本セミナーでは
「From Sound to Structure: Learning Representations in Multimodal and Audiovisual Systems」
と題し、音響情報を中心としたマルチモーダルAI研究についてご講演いただきました。
音響情報から他のモダリティを推定するアプローチや、その理論的背景・応用可能性についての議論は大変興味深く、多くの参加者が集い、盛況のうちに終了しました。
ご講演いただいた Dr. Shlizerman 氏ならびに、ご参加くださった皆さまに心より御礼申し上げます。
On April 13, 2026, we held an open seminar at the International Institute for Integrative Sleep Medicine (WPI-IIIS), University of Tsukuba, featuring Dr. Eli Shlizerman from the University of Washington.
Dr. Shlizerman is a collaborating researcher with our laboratory and leads a research group in the field of NeuroAI. In this seminar, entitled
“From Sound to Structure: Learning Representations in Multimodal and Audiovisual Systems,“
he presented his latest research on multimodal artificial intelligence, with a particular focus on auditory information.
The seminar highlighted innovative approaches for inferring information across different modalities from sound, as well as their theoretical foundations and potential applications. The talk attracted a large audience and concluded with lively discussions.
We would like to express our sincere gratitude to Dr. Shlizerman for his insightful lecture, and to all participants for their enthusiastic attendance.
ワシントン大学の Dr. Eli Shlizerman 氏をお招きし、オープンセミナーを開催しました。
Dr. Shlizerman 氏は、当研究室の共同研究者であり、NeuroAI 分野の研究室を主宰されています。本セミナーでは
「From Sound to Structure: Learning Representations in Multimodal and Audiovisual Systems」
と題し、音響情報を中心としたマルチモーダルAI研究についてご講演いただきました。
音響情報から他のモダリティを推定するアプローチや、その理論的背景・応用可能性についての議論は大変興味深く、多くの参加者が集い、盛況のうちに終了しました。
ご講演いただいた Dr. Shlizerman 氏ならびに、ご参加くださった皆さまに心より御礼申し上げます。
On April 13, 2026, we held an open seminar at the International Institute for Integrative Sleep Medicine (WPI-IIIS), University of Tsukuba, featuring Dr. Eli Shlizerman from the University of Washington.
Dr. Shlizerman is a collaborating researcher with our laboratory and leads a research group in the field of NeuroAI. In this seminar, entitled
“From Sound to Structure: Learning Representations in Multimodal and Audiovisual Systems,“
he presented his latest research on multimodal artificial intelligence, with a particular focus on auditory information.
The seminar highlighted innovative approaches for inferring information across different modalities from sound, as well as their theoretical foundations and potential applications. The talk attracted a large audience and concluded with lively discussions.
We would like to express our sincere gratitude to Dr. Shlizerman for his insightful lecture, and to all participants for their enthusiastic attendance.