8:00 - 9:00
Saguão do Prédio 32
9:00 - 10:00
Laboratório 401
O compartilhamento de recursos para a execução de aplicações de alto desempenho é uma tarefa considerável. Requisitos como controle de usuários, compartilhamento de dados, assim como a reserva e isolamento de recursos são cruciais no sistema. Neste minicurso, apresentaremos um conjunto de softwares que pode ser utilizado para resolver tais desafios, sempre demonstrado as configurações possíveis para adequar o sistema a ser compartilhado para os requisitos dos usuários. A pilha de software é inspirada na utilizada no PCAD (Parque Computacional de Alto Desempenho) do Grupo de Processamento Paralelo e Distribuído da Universidade Federal do Rio Grande do Sul.
9:00 - 10:00
Laboratório 418
OpenMP é uma interface de programação paralela usada para a geração implícita de threads em CPUs e GPUs, o que possibilita uma computação heterogênea. O padrão é baseado em diretivas de compilação, isto é, linhas de comando são inseridas em um código-fonte e tratadas em tempo de pré-compilação. O paralelismo é gerado pelas diretivas, as quais podem delimitar a região concorrente de código. Apesar da simplicidade de injeção de paralelismo em um determinado programa, a grande maioria dos usuários da interface limita-se a utilizar recursos elementares, como o paralelismo de laços em ambientes multiprocessados em detrimento de outras formas de invocação de operações concorrentes não tão difundidas. Neste contexto, este minicurso tem como objetivo apresentar como diferentes tipos de diretivas de OpenMP podem ser chamadas em uma aplicação e avaliar o desempenho paralelo que cada uma produz. Este estudo de caso busca mensurar especialmente a performance dos recursos disponíveis pelas versões mais recentes do padrão OpenMP.
10:00 - 10:30
Saguão do Prédio 32
10:00 - 11:30
Sala 111
10:30 - 11:30
Laboratório 401
O compartilhamento de recursos para a execução de aplicações de alto desempenho é uma tarefa considerável. Requisitos como controle de usuários, compartilhamento de dados, assim como a reserva e isolamento de recursos são cruciais no sistema. Neste minicurso, apresentaremos um conjunto de softwares que pode ser utilizado para resolver tais desafios, sempre demonstrado as configurações possíveis para adequar o sistema a ser compartilhado para os requisitos dos usuários. A pilha de software é inspirada na utilizada no PCAD (Parque Computacional de Alto Desempenho) do Grupo de Processamento Paralelo e Distribuído da Universidade Federal do Rio Grande do Sul.
10:30 - 11:30
Laboratório 418
OpenMP é uma interface de programação paralela usada para a geração implícita de threads em CPUs e GPUs, o que possibilita uma computação heterogênea. O padrão é baseado em diretivas de compilação, isto é, linhas de comando são inseridas em um código-fonte e tratadas em tempo de pré-compilação. O paralelismo é gerado pelas diretivas, as quais podem delimitar a região concorrente de código. Apesar da simplicidade de injeção de paralelismo em um determinado programa, a grande maioria dos usuários da interface limita-se a utilizar recursos elementares, como o paralelismo de laços em ambientes multiprocessados em detrimento de outras formas de invocação de operações concorrentes não tão difundidas. Neste contexto, este minicurso tem como objetivo apresentar como diferentes tipos de diretivas de OpenMP podem ser chamadas em uma aplicação e avaliar o desempenho paralelo que cada uma produz. Este estudo de caso busca mensurar especialmente a performance dos recursos disponíveis pelas versões mais recentes do padrão OpenMP.
11:30 - 12:00
Auditório do Prédio 32
Nesta palestra serão apresentadas as soluções de hardware para computação de alto desempenho que a empresa fornece, com especial foco nas soluções da Dell Technologies, e também os serviços especializados em HPC que disponibiliza. Adicionalmente o apresentador irá falar sobre as tendências deste mercado e sobre as diferentes maneiras de angariar fundos para pesquisas.
12:00 - 14:00
14:00 - 14:30
Auditório do Prédio 32
Nesta palestra Leonardo Fialho apresentará a visão da EVIDEN para o futuro da era Exascale. O que esperar da computação de alto desempenho quando o que era grande ficará ainda maior? Quais são os desafios do Exascale? O que é possível fazer? Quais as limitações de hardware? Quais as limitações da física? O que vem por aí? Uma breve visão do futuro que se materializará nos próximos anos dentro e fora da EVIDEN.
14:00 - 16:00
Sala 111
14:30 - 16:00
Auditório 517
Comparação entre as Diretivas parallel do e teams distribute de OpenMP em uma Aplicação de Meios Porosos
Análise do overhead em aplicações paralelas OpenMP utilizando OMPT e Score-P
Utilização de redes neurais artificiais como estratégia para o reconhecimento de emoções
Avaliação do paralelismo em classificadores taxonômicos de sequências de rRNA usando Qiime2
KNN exato em GPU
Algoritmo KNN paralelo em cluster com MPI
Algoritmo de Árvore Binomial Balanceada para Broadcast com MPI
14:30 - 16:00
Auditório 516
Desafios da modelagem do refinamento adaptativo das malhas: um estudo sobre o MARE2DEM
EnergyLB: combinando balanceamento de carga dinâmico com técnicas DVFS para reduzir o consumo de energia
Avaliando Paralelismo em Dispositivos com Recursos Limitados
Uma proposta para sistemas de arquivos criptográficos em Kernel-Space
Geração de Timetabling considerando avaliação do ENADE
Enabling Dynamic Rescheduling in Kubernetes Environments with Kubernetes Scheduling Extension (KSE)
16:00 - 16:30
Saguão do Prédio 32
16:30 - 17:30
Auditório do Prédio 32
Com algumas pitadas da história dos últimos 30 anos da ciência da computação no Brasil, falaremos da história da Empresa Supermicro, um importante player mundial e assídua participante desta história. Além disso, falaremos das mais novas tecnologias e lançamentos no cenário de transformações atual.
17:30 - 18:30
Auditório do Prédio 32
The cloud computing paradigm democratized compute infrastructure access to millions of resource-strained organizations, applying economics of scale to massively reduce infrastructure costs. In the High Performance Computing (HPC) context, the benefits of using public cloud resources make it an attractive alternative to expensive on-premises HPC clusters. In this talk, we discuss the challenges and limitations of current solutions and present our three recent contributions to this area: (i) HPC@Cloud: a provider-agnostic software framework that comprises a set of key software tools to assist in the migration, test and execution of HPC applications in public clouds; (ii) fault tolerance strategies based on in-memory checkpoint restart considering the particularities of unreliable cloud computing environments (a.k.a spot market); and (iii) an empirical approach for estimating cloud infrastructure costs to help researchers gain a quick impression of the pros and cons of the reserved and spot cloud options for CPU-intensive physics simulations and similar classes of applications.
18:30 - 19:30
Auditório do Prédio 32
19:30 - 21:30
TecnoPUC - Café Coworking
8:00 - 9:00
Saguão do Prédio 32
9:00 - 10:00
Auditório 517
A área de Internet das Coisas, ou IoT, vem crescendo continuamente e oferecendo inúmeras oportunidades em diversas áreas. Esses dispositivos interconectados detectam, monitoram e coletam diversos tipos de dados do ambiente físicos, de modo que aplicações de IoT vem sendo amplamente utilizadas em sistemas de transporte, indústria, educação, casas inteligentes, agricultura e saúde, por exemplo. Nesse contexto, aplicações de monitoramento remoto normalmente requerem a gravação, processamento e transmissão de grandes volumes de dados. Essa necessidade, contudo, se depara com as limitações intrínsecas destes dispositivos, os quais se caracterizam por restrição de consumo de bateria, capacidades limitadas de processamento e largura de banda. Para lidar com esses desafios, as técnicas de compactação podem ser usadas para diminuir o volume de dados antes de transmiti-los para outras camadas da infraestrutura, de modo que essa redução também resulta em menor consumo de energia que seria demandada na transmissão dos dados. O objetivo desse curso é explorar as possibilidades de compactação de dados entre variados tipos de algoritmos e suas características, bem como quais devem ser os critérios para escolha do mais adequado considerando os tipos de dados que se deseja processar, conforme sua finalidade e grau de criticidade.
9:00 - 10:00
Auditório 516
Apresenta-se neste minicurso os conceitos de projeto e desenvolvimento de programas paralelos. O enfoque principal será dado para o projeto metodológico chamado PCAM, proposto por Foster, e definido por quatro fases de criação de um programa paralelo: Particionamento, Comunicação, Aglomeração e Mapeamento. Também serão abordados padrões de projeto que podem ser aliados à metodologia PCAM e uma visão geral dos principais modelos de programas paralelos.
09:00 - 10:00
Sala 111
10:00 - 10:30
Saguão do Prédio 32
10:30 - 11:30
Auditório 517
A área de Internet das Coisas, ou IoT, vem crescendo continuamente e oferecendo inúmeras oportunidades em diversas áreas. Esses dispositivos interconectados detectam, monitoram e coletam diversos tipos de dados do ambiente físicos, de modo que aplicações de IoT vem sendo amplamente utilizadas em sistemas de transporte, indústria, educação, casas inteligentes, agricultura e saúde, por exemplo. Nesse contexto, aplicações de monitoramento remoto normalmente requerem a gravação, processamento e transmissão de grandes volumes de dados. Essa necessidade, contudo, se depara com as limitações intrínsecas destes dispositivos, os quais se caracterizam por restrição de consumo de bateria, capacidades limitadas de processamento e largura de banda. Para lidar com esses desafios, as técnicas de compactação podem ser usadas para diminuir o volume de dados antes de transmiti-los para outras camadas da infraestrutura, de modo que essa redução também resulta em menor consumo de energia que seria demandada na transmissão dos dados. O objetivo desse curso é explorar as possibilidades de compactação de dados entre variados tipos de algoritmos e suas características, bem como quais devem ser os critérios para escolha do mais adequado considerando os tipos de dados que se deseja processar, conforme sua finalidade e grau de criticidade.
10:30 - 11:30
Auditório 516
Apresenta-se neste minicurso os conceitos de projeto e desenvolvimento de programas paralelos. O enfoque principal será dado para o projeto metodológico chamado PCAM, proposto por Foster, e definido por quatro fases de criação de um programa paralelo: Particionamento, Comunicação, Aglomeração e Mapeamento. Também serão abordados padrões de projeto que podem ser aliados à metodologia PCAM e uma visão geral dos principais modelos de programas paralelos.
11:30 - 12:00
Auditório do Prédio 32
A HPE possui liderança mundial em Computação de Alto Desempenho, sendo o Supercomputador FRONTIER HPE Cray EX o número 1 do Top 500 (Nov 2022), entre outros Supercomputadores HPE que também integram a lista do Top 500 e serão apresentados para demonstrar a diversidade de arquitetura (CPUs e Aceleradores) e infraestrutura disponíveis na linha de Supercomputadores HPE Cray, que utilizam interconexão Cray Slingshot. Vamos apresentar brevemente também o Portfolio de HPC/AI da HPE.
12:00 - 13:30
13:30 - 14:30
Auditório do Prédio 32
Falaremos sobre os últimos 10 anos de tecnologia e as tendências para os próximos anos em HPC, Armazenamento e Inteligencia artificial.
14:30 - 16:00
Auditório 517
Cloud computing para deploy de modelos de deep learning para a classificação de Retinopatia Diabética
Comparando o Desempenho entre Computação em Nuvem e Servidor Local na Execução do Método Fletcher
Análise do Sobrecusto de Utilização de Contêineres para Execução de Aplicações de HPC na Nuvem
Proposta de um Cluster para Aplicações de HPC com o uso de Docker e Infiniband
Análise de Viabilidade do Perfilamento de Aplicações de HPC Baseada em Contadores de Hardware na AWS
Análise de Correlação no Esforço de Desenvolvimento de Aplicações Paralelas
14:30 - 16:00
Auditório 516
Utilização de aprendizado por reforço para adaptar a quantidade de recursos e acelerar aplicações
Otimização do Mapeamento de Threads e Dados em Aplicações com Memória Transacional usando Aprendizado de Máquina
Uma proposta para Federated Learning em Cibersegurança
Avaliação de Diretivas Paralelas em uma Aplicação de Simulação de Secagem de Grãos
Executando na Nuvem um Detector de Padrões de Acesso de E/S
Utilização de Machine Learning para Irrigação de Precisão
14:30 - 16:00
Laboratório 409
Nesse tutorial você vai conhecer a base do funcionamento das redes neurais profundas que vem revolucionando a área de aprendizado de máquina. Você vai aprender sobre o funcionamento de um único Perceptron, do Perceptron Multicamadas e Redes Neurais Convolucionais com aplicações em visão computacional. Você vai aprender a colocar esses conceitos em prática usando pytorch. Para acompanhar esse tutorial é necessário ter conhecimentos básicos de programação em python, álgebra linear e cálculo.
16:00 - 16:30
Saguão do Prédio 32
16:30 - 17:30
Auditório do Prédio 32
Soluções e cases de sucesso com Dell e NVIDIA para HPC.
17:30 - 18:30
Auditório do Prédio 32
A temática do Painel desta edição da ERAD/RS envolve como as novas tecnologias estão impactando (se estão) o ensino na área de arquiteturas e programação paralelas, ou seja, se reecursos como computação em nuvem (AWS labs, Google, Azure, etc.), novas bibliotecas e ferramentas, somado às demandas de modernas aplicações de Inteligência Artificial (Chat GPT/GitHub Copilot) têm alterado (ou irão alterar) a forma como se ensina AP e PP em currículos de Graduação e/ou Pós-Graduação.
18:30 - 19:30
Auditório do Prédio 32
One of the main challenges for modern processors is the data transfer between processor and memory. Such data movement implies high latency and high energy consumption. In this context, Near-Data Processing (NDP) proposals have started to gain acceptance as accelerator devices. Such proposals alleviate the memory bottleneck by moving instructions to data whereabouts. The first proposals date back to the 1970s, but only in the 2010s could we observe an increase in papers addressing NDP. It occurred with the appearance of 3D and 2.5D stacked chips using Through-Silicon Via (TSV) with logic and memory stacked layers. This talk presents a brief history of these accelerators, focusing on the applications domains migrated to near-data and the proposed architectures. It also presents a taxonomy to classify architectural proposals according to their data distance.
20:00 - 22:00
Mezanino do Espaço 32
8:00 - 9:00
Saguão do Prédio 32
9:00 - 10:00
Auditório 517
A Inteligência Artificial é um campo que vem evoluindo radicalmente nos últimos anos. Ela tem se mostrado uma ferramenta com alto poder de capilaridade, sendo incorporada nas mais diversas áreas econômicas e sociais. Sua aplicação em áreas como automação, robótica, classificação de dados, reconhecimento de imagens e em sistemas especialistas já é bastante sólida, mas tem chamado a atenção sua aplicação em áreas relacionadas à subjetividade humana, como a criação de ilustrações, de textos e música. A principal metodologia para a criação de agentes inteligentes é baseada no aprendizado máquina, que consiste em apresentar uma série de exemplos a um sistema computacional. Esses exemplos frequentemente compreendem grandes volumes de dados, e o processo de aprendizagem é um método iterativo de otimização que precisa ser repetido muitas vezes sobre esse conjunto de dados. Essas características fazem com que o desenvolvimento de modelos de inteligência artificial dependam de computação de alto desempenho. Modelos de inteligência artificial mais complexos, baseados em redes neurais artificiais com muitas camadas ocultas, empregam modelos de aprendizagem profunda (deep learning). A aprendizagem profunda é um problema de otimização de alta ordem, que exige uma capacidade de processamento ainda maior. Muitos modelos de inteligência artificial são baseados em redes neurais artificiais, que são modelos matemáticos/computacionais inspirados em neurônios biológicos. Assim como sua fonte de inspiração, sua arquitetura é massivamente paralela, o que torna possível a aplicação de diversas técnicas de computação paralela para acelerar o processo de aprendizagem. Neste minicurso serão abordados os fundamentos do aprendizado de máquina, suas implicações quanto à computação de alto desempenho, e as principais técnicas empregadas nesse contexto. Serão explorados modelos computacionais, frameworks mais utilizados, e diversos trabalhos científicos do estado da arte.
9:00 - 10:00
Auditório 516
O minicurso de armazenamento abordará as principais formas de conexões existentes, tais como SATA, SCSI, SAS, iSCSI, Fibre Channel, entre outras. Nele, os participantes poderão compreender as vantagens e desvantagens de cada uma dessas opções, bem como entender a importância da escolha correta na hora de definir a solução de armazenamento adequada para cada situação. Serão discutidos os diversos tipos de dispositivos de armazenamento existentes no mercado, tais como unidades de disco rígido (HDD), unidades de estado sólido (SSD), unidades de fita (tape drive), cartões de memória, entre outros. Os participantes poderão entender as características de cada um desses dispositivos, bem como saber qual a melhor opção. O treinamento disponibilizado será interativo, com vários equipamentos para serem vistos durante o minicurso.
10:00 - 10:30
Saguão do Prédio 32
10:30 - 11:30
Auditório 517
A Inteligência Artificial é um campo que vem evoluindo radicalmente nos últimos anos. Ela tem se mostrado uma ferramenta com alto poder de capilaridade, sendo incorporada nas mais diversas áreas econômicas e sociais. Sua aplicação em áreas como automação, robótica, classificação de dados, reconhecimento de imagens e em sistemas especialistas já é bastante sólida, mas tem chamado a atenção sua aplicação em áreas relacionadas à subjetividade humana, como a criação de ilustrações, de textos e música. A principal metodologia para a criação de agentes inteligentes é baseada no aprendizado máquina, que consiste em apresentar uma série de exemplos a um sistema computacional. Esses exemplos frequentemente compreendem grandes volumes de dados, e o processo de aprendizagem é um método iterativo de otimização que precisa ser repetido muitas vezes sobre esse conjunto de dados. Essas características fazem com que o desenvolvimento de modelos de inteligência artificial dependam de computação de alto desempenho. Modelos de inteligência artificial mais complexos, baseados em redes neurais artificiais com muitas camadas ocultas, empregam modelos de aprendizagem profunda (deep learning). A aprendizagem profunda é um problema de otimização de alta ordem, que exige uma capacidade de processamento ainda maior. Muitos modelos de inteligência artificial são baseados em redes neurais artificiais, que são modelos matemáticos/computacionais inspirados em neurônios biológicos. Assim como sua fonte de inspiração, sua arquitetura é massivamente paralela, o que torna possível a aplicação de diversas técnicas de computação paralela para acelerar o processo de aprendizagem. Neste minicurso serão abordados os fundamentos do aprendizado de máquina, suas implicações quanto à computação de alto desempenho, e as principais técnicas empregadas nesse contexto. Serão explorados modelos computacionais, frameworks mais utilizados, e diversos trabalhos científicos do estado da arte.
10:30 - 11:30
Auditório 516
O minicurso de armazenamento abordará as principais formas de conexões existentes, tais como SATA, SCSI, SAS, iSCSI, Fibre Channel, entre outras. Nele, os participantes poderão compreender as vantagens e desvantagens de cada uma dessas opções, bem como entender a importância da escolha correta na hora de definir a solução de armazenamento adequada para cada situação. Serão discutidos os diversos tipos de dispositivos de armazenamento existentes no mercado, tais como unidades de disco rígido (HDD), unidades de estado sólido (SSD), unidades de fita (tape drive), cartões de memória, entre outros. Os participantes poderão entender as características de cada um desses dispositivos, bem como saber qual a melhor opção. O treinamento disponibilizado será interativo, com vários equipamentos para serem vistos durante o minicurso.
10:30 - 11:30
Auditório do Prédio 32
11:30 - 12:00
Auditório do Prédio 32
Na Globo, os times estão constantemente evoluindo tecnologicamente. Como resultado, novas ferramentas são criadas e novos conhecimentos são compartilhados diariamente. Isso também acontece no time de Backstage Interatividade, que desenvolve aplicações capazes de atender mais de 3,2 milhões de requisições por minuto sem impacto para o usuário final. E estamos sempre buscando novas formas de melhorar o desempenho de nossas aplicações. Nesta apresentação, discutiremos os resultados e limitações observados em uma prova de conceito. Nosso objetivo foi explorar maneiras de reduzir o tempo de resposta entre o servidor de aplicação e o cliente. Para isso, substituímos os recursos exclusivos para cache por técnicas de cache space-efficienty in-memory na aplicação principal e sincronizamos esses dados em um cluster com múltiplos nós.
12:00 - 13:30
13:30 - 14:30
Auditório do Prédio 32
Welcome to a better way to store data. For over 40 years, Seagate has been offering the most innovative and easily integrated storage services built on trust, affordability, and ease. We consistently deliver a seamless experience at the best value. Accelerate Data Center Modernization At Seagate®, we never sacrifice capacity for performance. Now you can consolidate compute and storage in one chassis—easily scaling your data systems while reducing your footprint with our versatile and feature-rich design. A New Category of Intelligent Storage Exos® CORVAULT™ is a high-performance, self-healing block storage system that delivers multi-petabyte capacity, five-nines availability, and hyperscale efficiencies for data center and macro edge environments.
14:30 - 16:00
Auditório 516
Implementação e Avaliação de Desempenho da Linguagem Rust no NAS Embarassingly Parallel Benchmark
Avaliação do Paralelismo dos Kernels EP e CG em Sistemas Embarcados
Avaliação do paralelismo nos kernels NAS Parallel Benchmarks usando estruturas de dados da biblioteca C++
Uma proposta de análise de desempenho para rastreamento de fluxos de trabalho usando SPIFFE/SPIRE
Implementação e Avaliação do Paralelismo de Flink nas Aplicações de Processamento de Log e Análise de Clicks
Análise de Desempenho de Hash Tables Não-Bloqueantes na Linguagem C++
Proposta para o uso de Contadores de Performance em Hardware para detecção de Malware
14:30 - 16:00
Auditório do Prédio 32
Boas-vindas e apresentação inicial (14:30)
Projeto ADA - Mulheres na Computação (14:35)
Projeto Gurias da Politécnica (15:00)
Palestra: Como o gênero influencia a saúde mental de quem trabalha? (15:15)
Espaço para perguntas (15:50)
16:00 - 16:30
Saguão do Prédio 32
16:30 - 17:30
Auditório 517
Treinamento Paralelo de Redes Neurais usando o Modelo de Atores
Estudo Sobre Spark nas Aplicações de Processamento de Log e Análise de Cliques
Impacto da biblioteca padrão do C++ nos Kernels do NAS Parallel Benchmarks
Benchmarking da Aplicação de Comparação de Similaridade entre Imagens com Flink, Storm e SPar
Spike Detection Stream Benchmark implementada em MPI
16:30 - 17:30
Auditório 516
Uma proposta de análise comparativa de desempenho de implementações Barnes-Hut em clusters de computadores
Avaliação da Auto-Adaptação de Micro-Lote para aplicação de Processamento de Streaming em GPUs
Provendo melhorias na geração de código para GPUs na SPar
17:30 - 18:30
Auditório do Prédio 32
Com o desenvolvimento de modelos como ChatGPT, o Processamento de Linguagem Natural (PLN) vem sendo discutido cada vez mais como um caminho para a obtenção de uma Inteligência Artificial Geral (AGI - Artificial General Intelligence). O processamento de texto por parte de computadores passou por diversas fases ao longo dos anos, partindo de simples representações estatísticas das palavras até os atuais, e complexos, modelos baseados em redes neurais profundas. Neste painel, primeiro apresentaremos uma introdução da área através dos fundamentos gerais de PLN, considerando as tarefas mais utilizadas e as diferentes maneiras de representação de texto. Na segunda parte, discutiremos as novas arquiteturas neurais responsáveis pelas recentes inovações da área, explorando seu funcionamento e suas capacidades.
18:30 - 19:30
Auditório do Prédio 32