Работа конференции организована в форме пленарных и проблемно-тематических заседаний и заседаний «круглого стола». Пленарные доклады будут представлены по основным направлениям работы конференции.

Пленарные доклады:

Фото докладчикаИмя докладчикаНазвание докладаАннотация

Михалис Зервакис — проректор Технического Университета Крита Сравнение традиционных способов обработки изображений и подходов, основанных на применении глубокого машинного обучения, в медицинской диагностике Традиционная обработка изображений предоставила эффективные методологии для извлечения информации в медицинской среде и для таких задач, как сегментация, классификация тканей, регистрация, трехмерная реконструкция и аномалия / идентификация опухоли на ранних стадиях. Строгое формирование алгоритмических конвейеров таких схем было недавно поставлено под вопрос в связи с предлагаемой подходами глубокого обучения скоростью и точностью и, в частности, с использованием сверточных нейронных сетей (CNN). Хотя показано, что глубокие CNN достигают высокой точности, они работают как черный ящик с несколькими слоями нелинейностей, что трудно интерпретировать врачам и / или экспертам-радиологам. Другая проблема глубокого обучения связана с аспектами переобучения, которые делают обобщение предсказаний весьма ненадежным. В отношении интерпретируемости схем глубокого обучения появились результаты, такие как обоснование прогнозов глубокой CNN на основе созданных карт значимости. Кроме того, разность между входным изображением и его восстановлением из представления формирует другой подход для идентификации значимых областей в изображении, которые вносят значительный вклад в обучение CNN. Основная проблема в глубокой интерпретируемости CNN связана с обоснованием предсказаний семантически значимым образом, чтобы сеть могла обеспечить прозрачные процедуры классификации. Это имеет особое значение в медицинской визуализации, где сложность содержания ткани и используемые методы часто приводят к значительному отклонению даже от людей, оценивающих результаты.      В этом исследовании мы пытаемся связать традиционный медицинский конвейер с уровнями обработки глубоких нейронных сетей, чтобы обеспечить концептуальную интерпретацию этапов обучения и назначить оправданную роль каждому модулю глубокого образования CNN. Мы связываем сверточные слои с вейвлет-фильтрами, этапы объединения с понижающей дискретизацией и полностью соединенные слои с пространственными преобразованиями (такими как PCA, LDA или даже расширение пространства, как в SVM), которые обеспечивают более эффективное пространство для кластеризации, классификации и сегментации , Мы также представляем несколько коммерческих инструментов и баз данных для эффективного проектирования подходов глубокого обучения.

Доктор Наим Даноун – лектор университета Бристоля 2020: Эволюция цифровой обработки сигналовПереход от аналоговой к цифровой обработке сигналов начался в 1980-х годах, когда были изобретены первые цифровые сигнальные процессоры (DSP). За этим последовало большое количество приложений, которые изменили мир. Тем не менее, высокая производительность, мощность и форм-фактор, налагаемые на процессоры, делают многие приложения, такие как медицинские приложения, высокопроизводительные системы обработки изображений, высокопроизводительные вычисления и базовые сети, более требовательными для увеличения трафика данных и обмена данными между устройствами. Это предъявляет высокие требования к процессору (ам) и связанному с ним программному обеспечению и приводит к тому, что производители процессоров поддерживают закон Мура, внедряя многоядерные процессоры. Многоядерность вновь появляется как путь вперед, если для приложения требуются низкое энергопотребление и высокая производительность обработки. Тем не менее, скудному числу традиционных (одноядерных) программистов не хватает знаний и опыта, чтобы воспользоваться преимуществами этой новой технологии, или они перенаправлены на приложения IoT, которые используют микроконтроллеры и которые в настоящее время выполняют операции DSP и замедляют рынок DSP. Однако это может измениться с появлением технологий машинного обучения и искусственного интеллекта. В этом выступлении будут рассмотрены вопросы, которые отрасль и научные круги должны рассмотреть, чтобы охватить эту технологию, и взглянуть на новые и будущие разработки процессоров

Профессор Велько Милутинович
(Сербия)
DataFlow процессоры для систем глубокой аналитики больших данных и обработки сигналов Согласно Alibaba и Google, а также открытой литературе, парадигма DataFlow, по сравнению с парадигмой ControlFlow, предлагает: (a) Ускорения, по крайней мере, от 10x до 100x, а иногда и намного больше (зависит от алгоритмических характеристик наиболее важных циклов и пространственных / временных характеристики Big Data Streem и т. д.), (b) Потенциалы для лучшей точности (зависит от характеристик оптимизирующего компилятора и операционной системы и т. д.), (c) Снижение мощности по крайней мере 10x (зависит от тактовой частоты и внутренней архитектуры и т. Д.) И (d) уменьшение размера более чем в 10 раз (зависит от реализации чипа и технологии упаковки и т. Д.). Однако парадигма программирования отличается, и ее необходимо освоить.
Авторизация
*
*
Регистрация
*
*
*
Генерация пароля