XXIV Escola Regional de Alto Desempenho da Região Sul

Cronograma


Cronograma de atividades

8:00 - 9:00

Hall de Entrada

Registro

9:00 - 10:00

Laboratório G23

Apresentação: Claudio Schepke (UNIPAMPA), Felipe Bedinotto Fava (UNIPAMPA) e Diego Luiz Kreutz (UNIPAMPA)

Contêineres representam um paradigma de isolamento sem comprometer a velocidade e a eficiência. Docker, uma implementação específica de contêiner, revolucionou o cenário. Docker não apenas introduziu um formato de embalagem atraente, mas também forneceu ferramentas indispensáveis e promoveu um ecossistema diversificado. Uma imagem de contêiner Docker é como um pacote de software simplificado e independente, encapsulando tudo o que é essencial para executar um aplicativo: código, tempo de execução, ferramentas de sistema, bibliotecas e configurações. Quando implantadas, essas imagens de contêiner se transformam em contêineres ativos, uma transformação facilitada perfeitamente no Docker Engine para contêineres Docker. Compatível com aplicativos Linux e Windows, o software em contêiner garante uma operação consistente, independentemente da infraestrutura subjacente. Ao isolar o software do seu entorno, os contêineres garantem funcionalidade uniforme em diferentes ambientes, como desenvolvimento e preparação. Existem dois modelos predominantes para implementação baseada em contêiner dentro da estrutura de microsserviços: o modelo mestre-escravo e o modelo de contêiner aninhado (Docker in Docker - DinD). O modelo mestre-escravo compreende um contêiner mestre orquestrando outros como escravos, onde operam os processos da aplicação. O mestre é responsável por monitorar os contêineres subordinados e facilitar sua comunicação. Em contraste, a abordagem de contêiner aninhado envolve a criação hierárquica de contêineres subordinados (filhos) dentro de um contêiner principal (pai). O encapsulamento de todos os contêineres ocorre em um único contêiner. Essa abordagem simplifica o gerenciamento. Ele facilita a comunicação entre processos, garante o compartilhamento de destino e permite o compartilhamento de memória, disco e recursos de rede. No entanto, esta abordagem pode introduzir mais sobrecarga em comparação com o modelo mestre-escravo devido às suas duas camadas de daemon Docker. Nosso objetivo é mostrar como a avaliação de desempenho do Docker versus Docker in Docker (DinD) pode ser feita em diferentes distribuições GNU/Linux usando benchmarks estabelecidos. Ao avaliar CPU, memória, E/S de disco e E/S de rede, pode-se explorar o impacto do DinD em plataformas de infraestrutura como serviço (IaaS) em nuvem, como Google Compute Engine (GCE) e ambientes próprios. Para tanto, será fornecido uma coleção de scripts automatizados para construção de imagens de contêiner e realização de benchmarks em Docker e DinD em diversas distribuições GNU/Linux. Esses scripts são adaptáveis, permitindo a adição de novas versões e fácil replicação de experimentos de avaliação de performance paralela.

9:00 - 10:00

Sala G22

Apresentação: Guilherme Galante (Unioeste)

A exploração do paralelismo em arquiteturas de computadores atuais tem se tornado uma área de extrema relevância e interesse, impulsionada pela necessidade de lidar com cargas de trabalho cada vez mais complexas e exigentes. Com o avanço das tecnologias e a demanda por desempenho computacional escalável, tem-se buscado diferentes formas de aproveitar o paralelismo em diversos níveis, desde instruções vetoriais do processador até a exploração de sistemas de memória distribuída e aceleradores. Essa abordagem permite a execução de múltiplas tarefas simultaneamente, resultando em ganhos significativos de desempenho. Sob este escopo, este minicurso tem o objetivo de oferecer uma visão geral dos diferentes aspectos do paralelismo nas arquiteturas de computadores atuais.

10:00 - 10:30

Hall de Entrada

Coffee-break

10:30 - 11:30

Laboratório G23

Apresentação: Claudio Schepke (UNIPAMPA), Felipe Bedinotto Fava (UNIPAMPA) e Diego Luiz Kreutz (UNIPAMPA)

Contêineres representam um paradigma de isolamento sem comprometer a velocidade e a eficiência. Docker, uma implementação específica de contêiner, revolucionou o cenário. Docker não apenas introduziu um formato de embalagem atraente, mas também forneceu ferramentas indispensáveis e promoveu um ecossistema diversificado. Uma imagem de contêiner Docker é como um pacote de software simplificado e independente, encapsulando tudo o que é essencial para executar um aplicativo: código, tempo de execução, ferramentas de sistema, bibliotecas e configurações. Quando implantadas, essas imagens de contêiner se transformam em contêineres ativos, uma transformação facilitada perfeitamente no Docker Engine para contêineres Docker. Compatível com aplicativos Linux e Windows, o software em contêiner garante uma operação consistente, independentemente da infraestrutura subjacente. Ao isolar o software do seu entorno, os contêineres garantem funcionalidade uniforme em diferentes ambientes, como desenvolvimento e preparação. Existem dois modelos predominantes para implementação baseada em contêiner dentro da estrutura de microsserviços: o modelo mestre-escravo e o modelo de contêiner aninhado (Docker in Docker - DinD). O modelo mestre-escravo compreende um contêiner mestre orquestrando outros como escravos, onde operam os processos da aplicação. O mestre é responsável por monitorar os contêineres subordinados e facilitar sua comunicação. Em contraste, a abordagem de contêiner aninhado envolve a criação hierárquica de contêineres subordinados (filhos) dentro de um contêiner principal (pai). O encapsulamento de todos os contêineres ocorre em um único contêiner. Essa abordagem simplifica o gerenciamento. Ele facilita a comunicação entre processos, garante o compartilhamento de destino e permite o compartilhamento de memória, disco e recursos de rede. No entanto, esta abordagem pode introduzir mais sobrecarga em comparação com o modelo mestre-escravo devido às suas duas camadas de daemon Docker. Nosso objetivo é mostrar como a avaliação de desempenho do Docker versus Docker in Docker (DinD) pode ser feita em diferentes distribuições GNU/Linux usando benchmarks estabelecidos. Ao avaliar CPU, memória, E/S de disco e E/S de rede, pode-se explorar o impacto do DinD em plataformas de infraestrutura como serviço (IaaS) em nuvem, como Google Compute Engine (GCE) e ambientes próprios. Para tanto, será fornecido uma coleção de scripts automatizados para construção de imagens de contêiner e realização de benchmarks em Docker e DinD em diversas distribuições GNU/Linux. Esses scripts são adaptáveis, permitindo a adição de novas versões e fácil replicação de experimentos de avaliação de performance paralela.

10:30 - 11:30

Sala G22

Apresentação: Guilherme Galante (Unioeste)

A exploração do paralelismo em arquiteturas de computadores atuais tem se tornado uma área de extrema relevância e interesse, impulsionada pela necessidade de lidar com cargas de trabalho cada vez mais complexas e exigentes. Com o avanço das tecnologias e a demanda por desempenho computacional escalável, tem-se buscado diferentes formas de aproveitar o paralelismo em diversos níveis, desde instruções vetoriais do processador até a exploração de sistemas de memória distribuída e aceleradores. Essa abordagem permite a execução de múltiplas tarefas simultaneamente, resultando em ganhos significativos de desempenho. Sob este escopo, este minicurso tem o objetivo de oferecer uma visão geral dos diferentes aspectos do paralelismo nas arquiteturas de computadores atuais.

11:30 - 12:00

Auditório

Apresentação: Alysson Oliveira (Lexis Nexis Risk Solutions)

A plataforma HPCC Systems de código aberto utiliza arquitetura de dados distribuída e uma metodologia de processamento paralelo para trabalhar com grandes conjuntos de dados. O 'pipeline' de dados na plataforma acompanha os dados desde a origem até a sua ingestão no cluster Thor, onde eles são refinados através de limpeza e padronização dos dados e, em seguida, enriquecidos, para depois, serem disponibilizados para aplicações de consulta em tempo real hospedadas no cluster Roxie. Em conjunto com essas duas arquiteturas de clusters e, compondo o chamado 'Power Trio', se faz presente a linguagem ECL, sendo a única linguagem necessária para expressar algoritmos de dados em toda a plataforma HPCC Systems. No cluster Thor, a linguagem ECL expressa 'workflows' de dados que consistem em carregamento dados, transformação, vinculação, indexação etc. No cluster Roxie, a linguagem ECL define serviços de consultas de dados. A linguagem ECL é implicitamente paralela, portanto, o mesmo código ECL desenvolvido para ser executado em um cluster de nó único pode ser executado com a mesma facilidade em um cluster com centenas de nós. O programador não precisa se preocupar em implementar a paralelização, e a linguagem ECL possui uma função otimizadora que garante o melhor desempenho para uma arquitetura específica. Integrado à linguagem ECL encontram-se disponíveis diversas bibliotecas de Machine Learning aplicáveis às várias categorias de aprendizado de máquina, onde cada algoritmo tem suas próprias peculiaridades, as quais devem ser levadas em consideração para maximizar a precisão preditiva, tendo em conta que todos os 'bundles' operam de maneira muito semelhante, com algumas variações menores. Por esses motivos, é muito importante que não seja utilizada a exploração de Machine Learning para produzir produtos ou reivindicar habilidades sem antes consultar a documentação que acompanha cada 'bundle', a fim de usá-lo de forma efetiva. Finalmente, objetivando demonstrar o uso de algoritmos de Aprendizado de Máquina na plataforma HPCC Systems, será apresentado um estudo de caso durante a realização do Minicurso dentro da programação do ERAD-RS 2024.

12:00 - 14:00

Almoço

14:00 - 14:30

Auditório

Apresentação: Paulo Fonseca (Versatus HPC)

14:30 - 16:00

Sala G22

Chair: Edson Padoin (Unijuí)

Synapse meets Slurm: Proposta de um middleware para paralelização de algoritmos de otimização populacionais

Arthur M.P. Gabardo (UFSC), Pablo A. Jaskowiak (UFSC) e Thiago P. Tancredi (UFSC)

Otimizando a Implementação Multi-GPU do Método Fletcher através da Paralelização Eficiente na Computação e Comunicação de Dados

Pedro H. C. Rigon (UFRGS), Brenda S. Schussler (UFRGS), Arthur F. Lorenzon (UFRGS), Cristiano A. Künas (UFRGS), Alexandre Carissimi (UFRGS) e Philippe O. A. Navaux (UFRGS)

Analisando Paralelismo de Dados em Rust Usando o Método do Gradiente Conjugado

Lucas S. Bianchessi (PUCRS), Leonardo G. Faé (PUCRS), Renato B. Hoffman (PUCRS) e Dalvan Griebler (PUCRS)

Paralelização de computação e escrita em aplicações de simulação de propagação de ondas utilizando o padrão de comunicação MPI

Rodrigo C. Machado (UFRGS), Arthur F. Lorenzon (UFRGS) e Philippe O. A. Navaux (UFRGS)

Proposta de um serviço de replicação desacoplado da aplicação

Rafaela Tillmann (UFSC), Odorico M. Mendizabal (UFSC)

Análise do Desempenho de Aplicações Paralelas geradas por Ferramentas de Inteligência Artificial

João V. M. Dias (UFRGS), Antonio C. S. Beck (UFRGS) e Arthur F. Lorenzon (UFRGS)

14:30 - 16:00

Auditório

Chair: Manuel Binelo (Unijuí)

Proposta de Paralelismo de Stream Multi-GPU em Multi-Cores

Gabriel Fim (PUCRS) e Dalvan Griebler (PUCRS)

Em Direção a um Modelo de Programação Paralela Único para CPUs e GPUs em Processamento de Stream

Gabriell Araujo (PUCRS), Dalvan Griebler (PUCRS) e Luiz Gustavo Fernandes (PUCRS)

Proposta de Pipelines Lineares de Alto Nível em Rust Utilizando GPU

Leonardo Faé (PUCRS) e Dalvan Griebler (PUCRS)

Construção Paralela Lock-Free de Octrees Esparsas em GPU

Michel Brasil Cordeiro (UFPR) e Wagner Zola (UFPR)

Aprimorando o algoritmo SLIDE-GPU para Problemas de Classificação Extrema

Michel Brasil Cordeiro (UFPR) e Wagner Zola (UFPR)

16:00 - 16:30

Hall de Entrada

Coffee-break

16:30 - 17:30

Auditório

Apresentação: Guilherme Friol (Representando a SDC)

Nossa palestra vai explorar desde os incríveis mini PCs super potentes equipados com GPUs de última geração até os impressionantes clusters de altíssima performance.

17:30 - 18:30

Auditório

Apresentação: Tiago Ferreto (PUCRS)

A Computação em Borda é uma área fundamental para atender às exigências de aplicações com baixa latência e alta eficiência. Nesta palestra, serão apresentadas novas estratégias para a implantação ágil de aplicações, enfatizando a importância da virtualização baseada em contêineres e os desafios únicos associados à gestão de recursos em infraestruturas descentralizadas. Serão explorados métodos avançados para o gerenciamento eficiente de servidores, concentrando-nos em minimizar o tempo de inatividade e maximizar o desempenho. Também será abordado como a otimização de recursos e a utilização de algoritmos inteligentes podem resultar em uma gestão mais eficaz e sustentável da energia. A palestra visa proporcionar um entendimento profundo das técnicas atuais e emergentes em Computação em Borda, combinando teoria com soluções práticas e estudos de caso, buscando discutir como enfrentar os desafios atuais e futuros nesta área em rápida evolução.

18:30 - 19:30

Auditório

Cerimônia de Abertura

19:30 - 21:30

Hall de Entrada

Confraternização

8:00 - 9:00

Hall de Entrada

Registro

9:00 - 10:00

Laboratório G23

Apresentação: Gabriel P. Silva (UFRJ), Calebe P. Bianchini (Mackenzie) e Evaldo B. Costa (NVIDIA)

Este minicurso tem como objetivo apresentar técnicas de programação paralela utilizando diretivas do OpenMP, com ênfase nos modelos de tarefas. Serão abordadas as modificações necessárias no código-fonte para implementar esses modelos, e os resultados obtidos serão avaliados por meio de métricas de desempenho, como aceleração e eficiência.

9:00 - 10:00

Sala G22

Minicurso 4 (parte 1): Armazenamento – Melhores Práticas – Entendendo do básico ao avançado
Apresentação: Guilherme Friol (Vircos Tecnologia)

O minicurso de armazenamento abordará as principais formas de conexões existentes, tais como SATA, SCSI, SAS, iSCSI, Fibre Channel, entre outras. Os participantes poderão compreender as vantagens e desvantagens de cada uma dessas opções, bem como entender a importância da escolha correta na hora de definir a solução de armazenamento adequada para cada situação, desde o seu notebook até um sistema de storage distribuido. Serão discutidos os diversos tipos de dispositivos de armazenamento existentes no mercado, tais como unidades de disco rígido (HDD), unidades de estado sólido (SSD), unidades de fita (tape drive), cartões de memória, entre outros. O treinamento disponibilizado será interativo, com vários equipamentos para serem vistos durante o minicurso.

10:00 - 10:30

Hall de Entrada

Coffee-break

10:30 - 11:30

Laboratório G23

Apresentação: Gabriel P. Silva (UFRJ), Calebe P. Bianchini (Mackenzie) e Evaldo B. Costa (Dell Technologies)

Este minicurso tem como objetivo apresentar técnicas de programação paralela utilizando diretivas do OpenMP, com ênfase nos modelos de tarefas. Serão abordadas as modificações necessárias no código-fonte para implementar esses modelos, e os resultados obtidos serão avaliados por meio de métricas de desempenho, como aceleração e eficiência.

10:30 - 11:30

Sala G22

Minicurso 4 (parte 2): Armazenamento – Melhores Práticas – Entendendo do básico ao avançado
Apresentação: Guilherme Friol (Vircos Tecnologia)

O minicurso de armazenamento abordará as principais formas de conexões existentes, tais como SATA, SCSI, SAS, iSCSI, Fibre Channel, entre outras. Os participantes poderão compreender as vantagens e desvantagens de cada uma dessas opções, bem como entender a importância da escolha correta na hora de definir a solução de armazenamento adequada para cada situação, desde o seu notebook até um sistema de storage distribuido. Serão discutidos os diversos tipos de dispositivos de armazenamento existentes no mercado, tais como unidades de disco rígido (HDD), unidades de estado sólido (SSD), unidades de fita (tape drive), cartões de memória, entre outros. O treinamento disponibilizado será interativo, com vários equipamentos para serem vistos durante o minicurso.

10:30 - 11:30

Auditório

Chair: Tiago Ferreto (PUCRS)

Proposta de análise de desempenho entre OpenID Connect e Keycloak usando OpenID Connect

Carlos D. S. Bunn (UDESC) e Charles C. Miers (UDESC)

Caracterização de Operações de E/S por meio da Análise de Logs

Thomas S. Wiederkehr (UFRGS), Philippe O. A. Navaux (UFRGS) e Cristiano A. Künas (UFRGS)

Predicting the efficiency of job scheduler actions

Ana E. N. Kraus (UDESC), Guilherme Diel (UDESC) e Guilherme P. Koslovski (UDESC)

Análise da Variabilidade de Processos na Execução de Tarefas em Arquiteturas Heterogêneas

Thiago dos S. Gonçalves (UFRGS), Antonio C. S. Beck (UFRGS) e Arthur F. Lorenzon (UFRGS)

Algoritmos de divisão de números complexos para aplicações de alto desempenho

Marcelo D. Ribas (UFRGS), Lucas L. Nesi (UFRGS) e Lucas M.Schnorr (UFRGS)

11:30 - 12:00

Auditório

Apresentação: Evaldo Costa (Dell Technologies)

Muitos dos avanços atuais estão sendo impulsionados pelas tecnologias baseadas em Computação de Alto Desempenho (HPC) e Inteligencia Artificial (IA). Essas tecnologias estão sendo utilizadas para resolver problemas complexos em diversas áreas, transformando dados em insights mais rapidamente. A Dell Technologies tem soluções completas para todos os desafios atraves do uso de recursos de última geração como CPUs, GPUs, armazenamento e rede.

12:00 - 14:00

Almoço

14:00 - 14:30

Auditório

Apresentação: Pedro Mário Cruz e Silva (NVIDIA)

Revolucionando o cenário da IA e da ciência computacional, a computação acelerada está remodelando a forma como abordamos o processamento de dados – do data center à nuvem e até a borda. Participe de uma exploração imersiva e obtenha insights profundos sobre os avanços mais recentes , inovações e tecnologias de ponta aplicadas a ciência e engenharia para capacitar empresas, indústrias e nações no aproveitamento das vantagens ilimitadas da supercomputação para IA.

14:30 - 16:00

Auditório

Chair: Claudio Schepke (Unipampa)

Análise da Pegada de Carbono em Aplicações Paralelas

Arthur Silveira (Faculdade São Francisco de Assis) e Arthur Lorenzon (UFRGS)

Infraestrutura como Código: A prova de Conceito para o Melhor Resultado em uma Pipeline de Desenvolvimento de Software

Denis Citadin (UFRGS) e Arthur Lorenzon (UFRGS)

Benchmark Study for Multiple Security Documents Enhancing SPIFFE/SPIRE Environment

Henrique Zanela Cochak (UDESC) e Charles Miers (UDESC)

Proposta de Reparticionamento Contínuo em Sistemas com Estado Particionado

Douglas Luiz (UFSC) e Odorico Mendizabal (UFSC)

Tolerância a Falhas para Paralelismo de Stream de Alto Nível

Lucas Alf (PUCRS) e Dalvan Griebler (PUCRS)

Em Direção à Programação Distribuída na Seleção de Planos em Sistemas Multi-Agentes

Renato Barreto Hoffmann Filho (PUCRS) e Dalvan Griebler (PUCRS)

Tolerância a Falhas Bizantinas de Aplicações Provisionadas Localmente com Kubernetes: Uma Proposta Inicial

Leonardo Anastácio (UDESC) e Guilherme Koslovski (UDESC)

14:30 - 16:00

Sala G22

Chair: Guilherme Galante (Unioeste)

Avaliação da Biblioteca SCR em Instâncias AWS Spot Utilizando a Ferramenta HPC@Cloud

João Feres (UFSC), Vanderlei Pereira Filho (UFSC) e Márcio Castro (UFSC)

Um estudo preliminar sobre o impacto de protocolos para controle de congestionamento em Edge-Cloud Continuum

Nicolas K. C. Sakashita (UDESC) e Guilherme P. Koslovski (UDESC)

Otimização de Configurações de Threads por Bloco para Kernels GPU na Exploração Geofísica

Brenda Schussler (UFRGS), Pedro Rigon (UFRGS), Cristiano A. Künas (UFRGS), Arthur F. Lorenzon (UFRGS), Alexandre Carissimi (UFRGS) e Philippe O. A. Navaux (UFRGS)

Comparing Burstable and On-Demand AWS EC2 Instances using NAS Parallel Benchmarks

Gian C. F. Ferrari (UFSC), Vanderlei Pereira Filho (UFSC) e Márcio Castro (UFSC)

COTTONTRUST: Análise dos Tempos de Criação de Entidades com Base em Identidades Autossoberanas

Gilson Sohn Junior (UDESC), Gabriel F. C. da Silva (UDESC), Janaina F. B. Duarte (UDESC) e Mauricio A. Pillon (UDESC)

Otimização de Programas de Escoamento de Fluidos em um Modelo Bidimensional

Anna V. G. Marciano (UNIPAMPA), Claudio Schepke (UNIPAMPA), Roberta A. Spigolon (UNIPAMPA) e Cesar F. C. Cristaldo (UNIPAMPA)

Uma proposta de arquitetura para análise de desempenho de redes sem fio LoRa e ZigBee aplicada a um sistema de monitoramento ambiental de data center

Rodrigo A. Krauel (UDESC) e Charles C. Miers (UDESC)

14:30 - 16:00

Sala Hub

Apresentação: Rayse Kiane de Souza (Byteful Leadies (SENAI)), Cristina Meinhardt (Participante do projeto Gurias Digitais (FURG) até 2019 e Diretora de Inovação e Novas Oportunidades da SBMicro) e Luciana Bolan Frigo (Consultora do Programa Meninas Digitais - SBC, Fundadora do Projeto Meninas Digitais - UFSC e Pesquisadora ELLAS)

O painel aborda projetos e ações relacionadas as atividades de inclusão e permanência de meninas e mulheres na computação. Uma discussão sobre como a influência social (comportamento, crenças, atitudes, opiniões ou sentimentos a partir da interação social) e digital (micro e nanos influenciadores) podem auxiliar neste processo de busca pela equidade de gênero na tecnologia, fundamental para uma sociedade mais justa.

14:30 - 16:00

Laboratório G23

Apresentação: Manuel Osório Binelo (Unijuí) e Edson Luiz Padoin (Unijuí)

A Inteligência Artificial é um campo que vem evoluindo radicalmente nos últimos anos. Ela tem se mostrado uma ferramenta com alto poder de capilaridade, sendo incorporada nas mais diversas áreas econômicas e sociais. Sua aplicação em áreas como automação, robótica, classificação de dados, reconhecimento de imagens e em sistemas especialistas já é bastante sólida, mas tem chamado a atenção sua aplicação em áreas relacionadas à subjetividade humana, como a criação de ilustrações, de textos e música. A principal metodologia para a criação de agentes inteligentes é baseada no aprendizado máquina, que consiste em apresentar uma série de exemplos a um sistema computacional. Esses exemplos frequentemente compreendem grandes volumes de dados, e o processo de aprendizagem é um método iterativo de otimização que precisa ser repetido muitas vezes sobre esse conjunto de dados. Essas características fazem com que o desenvolvimento de modelos de inteligência artificial dependam de computação de alto desempenho. Modelos de inteligência artificial mais complexos, como aqueles baseados em redes neurais artificiais com muitas camadas ocultas, empregam técnicas de aprendizagem profunda (deep learning). A aprendizagem profunda é um problema de otimização de alta ordem, que exige uma capacidade de processamento ainda maior. Muitos modelos de inteligência artificial são baseados em redes neurais artificiais, que são modelos matemáticos/computacionais inspirados em neurônios biológicos. Assim como sua fonte de inspiração, sua arquitetura é massivamente paralela, o que torna possível a aplicação de diversas técnicas de computação paralela para acelerar o processo de aprendizagem. Neste minicurso serão abordados os fundamentos do aprendizado de máquina, suas implicações quanto à computação de alto desempenho, e as principais técnicas empregadas nesse contexto. Serão explorados modelos computacionais, frameworks mais utilizados, e diversos trabalhos científicos do estado da arte.

16:00 - 16:30

Hall de Entrada

Coffee-break

16:30 - 17:30

Auditório

Apresentação: Guilherme Friol (Vircos)

A observabilidade em HPC refere-se à capacidade de compreender e monitorar efetivamente o comportamento interno e o desempenho de sistemas de computação de alto desempenho. Ela permite que tenhamos uma visão abrangente e detalhada do que está acontecendo dentro desses sistemas, facilitando a identificação de problemas, diagnósticos de falhas e otimização do desempenho. Vamos explorar as principais ferramentas, falar sobre os desafios e como isso tudo pode sair do papel e se tornar realidade.

17:30 - 18:30

Auditório

Apresentação: Rodrigo da Rosa Righi (Unisinos)

Cidades inteligentes é um tema na moda atualmente. Pode ser entendido como o o uso integrado de sensores e atuadores que colaboram com algoritmos inteligentes para gerar benefícios para os cidadãos e administração pública. No contexto de saúde, muito se fala num monitoramento massivo da população, analisando sinais vitais pessoa a pessoa para obter insights pontuais, assim como descobertas baseadas em geo-localização. Essa palestra vem ao encontro de discutir os desafios quanto a implantação de uma cidade inteligente no âmbito da saúde, trazendo principalmente aspectos de como se atingir alta escalabilidade. A ideia é apresentar aspectos de computação de alto desempenho que possam ser empregados nesse contexto para usufruir de uma boa qualidade de serviço para os usuários dos dados, bem com proporcionar decisões proativas e notificações o mais perto do tempo real. Assim, especificadamente, temas como computação Serverless, balanceamento de carga dinâmico, elasticidade de recursos em nuvem, organização hierárquica de recursos em árvore, inteligência artificial em nós fog, compressão adaptativa de dados e mecanismos de offloading serão abordados e correlacionados para a confecção de uma proposta, a qual é utilizada no projeto MinhaHistóriaDigital.

18:30 - 19:30

Auditório

Apresentação: Luis Bona (UFPR)

O C3SL da UFPR enfrenta os grandes desafios nacionais, utilizando software livre como ferramenta estratégica para inovação e desenvolvimento social. Conhecido pela operação de um dos maiores espelhos de software livre, este grupo de pesquisa destaca-se na promoção do acesso à tecnologia e na transformação econômica através de soluções tecnológicas abertas. Esta palestra explora a atuação e o impacto significativo do C3SL, evidenciando como sua abordagem colaborativa ao software livre é fundamental para um futuro mais inovador e inclusivo no Brasil. Ao discutir a iniciativa do C3SL, ressaltamos como a universidade contribui para a soberania tecnológica do país, reafirmando a importância da independência e do avanço tecnológico autônomo.

20:00 - 22:00

Imigrantes Buffet e Eventos

Jantar

8:00 - 9:00

Hall de Entrada

Registro

9:00 - 10:00

Laboratório G23

Apresentação: Hermes Senger (UFSCar)

Arquiteturas heterogêneas com CPUs e GPUs têm se tornado cada vez mais frequentes em sistemas de computação de alto desempenho. Extrair todo o seu potencial de desempenho, assim como a capacidade de escrever e otimizar códigos de aplicações que possam ser executadas de forma eficiente em diferentes infra-estruturas de HPC, são requisitos importantes para a resolução de problemas e aplicações da indústria. Este minicurso explora a abordagem de programação por diretivas oferecida pelo OpenMP, mostrando de forma simplificada alguns caminhos para a implementação e otimização de aplicações para sistemas heterogêneos com foco em GPUs.

9:00 - 10:00

Sala G22

Apresentação: Alexandre Castro (DigiFarmz), Letícia Moura (DigiFarmz) e Matheus da Silva Serpa (UFRGS)

Na era atual da tecnologia, onde dados são gerados e consumidos em uma escala sem precedentes, a Ciência de Dados emergiu como um campo crucial para transformar esses dados em insights valiosos. Com a crescente complexidade e o aumento do volume de dados, torna-se essencial empregar técnicas eficientes em sistemas distribuídos para lidar com esses desafios. O Apache Spark, uma ferramenta poderosa para o processamento de dados em larga escala, desempenha um papel vital nesse cenário, permitindo a análise e o processamento de dados de maneira rápida e eficiente. Neste minicurso, os participantes serão imersos no mundo da Ciência de Dados aplicada a sistemas distribuídos. O curso abordará desde conceitos fundamentais de Data Science e suas aplicações práticas até o uso do Apache Spark. Será dada ênfase especial à capacidade do Spark de realizar processamento de dados em ambientes de alto desempenho. Os alunos aprenderão como o Apache Spark facilita o trabalho com grandes volumes de dados, além de explorar suas funcionalidades em análises de dados e machine learning. Um dos destaques do curso será o desenvolvimento de um projeto de Data Science end-to-end, que envolverá desde a extração dos dados e transformação até o treinamento de um modelo de Machine Learning, deployment e integração via frontend. Este curso oferece uma oportunidade única para profissionais e entusiastas da área entenderem como maximizar o potencial da Ciência de Dados em sistemas distribuídos, utilizando uma das ferramentas mais influentes da atualidade.

9:00 - 10:00

Auditório

Apresentação: Pedro Mário Cruz e Silva (NVIDIA)

O NVIDIA Modulus é um framework de código aberto que permite a construção, treinamento e aprimoramento de modelos de aprendizado de máquina baseados em física (Physics Informed Machine Learning) com uma interface simples em Python. O NVIDIA Modulus oferece uma ampla gama de abordagens para treinar modelos baseados em física, desde modelos impulsionados puramente por física até arquiteturas baseadas em física e data-driven. O framework também oferece um pipeline de ponta a ponta para treinamento de modelos, desde a ingestão de geometria até a adição de equações diferenciais parciais (EDPs) e escalabilidade do treinamento para multi-GPUs multi-nó. Serão apresentadas várias capacidades do NVIDIA Modulus, incluindo suas arquiteturas de modelo inovadoras, capacidades de treinamento de última geração e parametrização explícita. Também serão discutidos tópicos como aplicações de referência e casos de uso para o framework em várias áreas, desde engenharia até ciências da vida.

10:00 - 10:30

Hall de Entrada

Coffee-break

10:30 - 11:30

Laboratório G23

Apresentação: Hermes Senger (UFSCar)

Arquiteturas heterogêneas com CPUs e GPUs têm se tornado cada vez mais frequentes em sistemas de computação de alto desempenho. Extrair todo o seu potencial de desempenho, assim como a capacidade de escrever e otimizar códigos de aplicações que possam ser executadas de forma eficiente em diferentes infra-estruturas de HPC, são requisitos importantes para a resolução de problemas e aplicações da indústria. Este minicurso explora a abordagem de programação por diretivas oferecida pelo OpenMP, mostrando de forma simplificada alguns caminhos para a implementação e otimização de aplicações para sistemas heterogêneos com foco em GPUs.

10:30 - 11:30

Sala G22

Apresentação: Alexandre Castro (DigiFarmz), Letícia Moura (DigiFarmz) e Matheus da Silva Serpa (UFRGS)

Na era atual da tecnologia, onde dados são gerados e consumidos em uma escala sem precedentes, a Ciência de Dados emergiu como um campo crucial para transformar esses dados em insights valiosos. Com a crescente complexidade e o aumento do volume de dados, torna-se essencial empregar técnicas eficientes em sistemas distribuídos para lidar com esses desafios. O Apache Spark, uma ferramenta poderosa para o processamento de dados em larga escala, desempenha um papel vital nesse cenário, permitindo a análise e o processamento de dados de maneira rápida e eficiente. Neste minicurso, os participantes serão imersos no mundo da Ciência de Dados aplicada a sistemas distribuídos. O curso abordará desde conceitos fundamentais de Data Science e suas aplicações práticas até o uso do Apache Spark. Será dada ênfase especial à capacidade do Spark de realizar processamento de dados em ambientes de alto desempenho. Os alunos aprenderão como o Apache Spark facilita o trabalho com grandes volumes de dados, além de explorar suas funcionalidades em análises de dados e machine learning. Um dos destaques do curso será o desenvolvimento de um projeto de Data Science end-to-end, que envolverá desde a extração dos dados e transformação até o treinamento de um modelo de Machine Learning, deployment e integração via frontend. Este curso oferece uma oportunidade única para profissionais e entusiastas da área entenderem como maximizar o potencial da Ciência de Dados em sistemas distribuídos, utilizando uma das ferramentas mais influentes da atualidade.

10:30 - 11:30

Auditório

Apresentação: Pedro Mário Cruz e Silva (NVIDIA)

O NVIDIA Modulus é um framework de código aberto que permite a construção, treinamento e aprimoramento de modelos de aprendizado de máquina baseados em física (Physics Informed Machine Learning) com uma interface simples em Python. O NVIDIA Modulus oferece uma ampla gama de abordagens para treinar modelos baseados em física, desde modelos impulsionados puramente por física até arquiteturas baseadas em física e data-driven. O framework também oferece um pipeline de ponta a ponta para treinamento de modelos, desde a ingestão de geometria até a adição de equações diferenciais parciais (EDPs) e escalabilidade do treinamento para multi-GPUs multi-nó. Serão apresentadas várias capacidades do NVIDIA Modulus, incluindo suas arquiteturas de modelo inovadoras, capacidades de treinamento de última geração e parametrização explícita. Também serão discutidos tópicos como aplicações de referência e casos de uso para o framework em várias áreas, desde engenharia até ciências da vida.

10:30 - 11:30

Sala Hub

Reunião da CRAD

11:30 - 12:00

Auditório

Apresentação: Mônica Costa (Hewlett Packard Enterprise)

Vamos explorar a liderança mundial da HPE em Computação de Alto Desempenho e Inteligência Artificial reforçando o posicionamento do Supercomputador FRONTIER HPE CRAY EX como no.1 da Lista do Top500 (https://www.top500.org/) e demais casos de sucesso para os Supercomputadores HPE CRAY EX. Vamos apresentar o Portifólio de HPC/AI CRAY XD com suas arquiteturas diversas de infraestrutura de rede de alta performance, CPUs e Aceleradores, bem como as opções de refrigeração de acordo com cada ambiente.

12:00 - 14:00

Almoço

14:00 - 14:30

Auditório

Apresentação: Flávio Gabriel Oliveira Barbosa (Instituto SENAI de Inovação em Sistemas Embarcados)

Nesta palestra, será abordado o papel crucial dos supercomputadores na aceleração de projetos de inovação em visão computacional. Ao combinar capacidades de processamento massivo com algoritmos avançados, os supercomputadores capacitam pesquisadores a lidar com conjuntos de dados complexos, impulsionando avanços em áreas como análise de imagens, detecção de objetos e imagens de satélites. Serão discutidos casos de uso práticos e os desafios enfrentados nesse campo em constante evolução, destacando como os supercomputadores estão transformando a visão computacional e impulsionando a próxima geração de inovações tecnológicas.

14:30 - 16:00

Auditório

Chair: Maurício Pillon (UDESC)

An Approach to Home Environment Monitoring of People with Disabilities Through AIoT

Anita Fernandes (Univali), Valderi Leithardt (Instituto Superior de Engenharia de Lisboa) e Juan Francisco de Paz Santana (Universidad de Salamanca)

Proposta de Análise de Desempenho do Uso de Mecanismos de Segurança em Sistemas Inteligentes usando Aprendizado de Máquina e IA Gerativa Adversariais do Tipo LLM

Milton Pagliuso Neto (UDESC) e Charles Miers (UDESC)

Uma Solução Integrada de Machine Learning e Deep Learning para Melhorar a Eficiência da Irrigação de Precisão

Rogerio P dos Santos (Universidade Lusofona), Marko Beko (Universidade Lusofona) e Valderi Leithardt (Instituto Superior de Engenharia de Lisboa)

Otimizando Aplicações de Aprendizado Profundo na Cloud

Thiago Araújo (UFRGS), Cristiano Alex Künas (UFRGS), Philippe Olivier Alexandre Navaux (UFRGS), Mateus dos Reis (Feevale) e Beatriz Schaan (UFRGS)

Adicionando Elasticidade a Padrões Paralelos

Cristiane de Andrade (Unioeste) e Guilherme Galante (Unioeste)

Aprendizado Federado com AutoKeras e Knowledge Distillation

Bruno Meyer (UFPR), Aurora Pozo (UFPR), Michele Nogueira (UFMG) e Wagner Zola (UFPR)

Provisioning of Applications with Network Requirements on Cloud-Edge Continuum

Paulo Albuquerque (UDESC) e Guilherme Piêgas Koslovski (UDESC)

14:30 - 16:00

Sala G22

Chair: Charles Miers (UDESC)

Usando aprendizado supervisionado para composição de políticas de escalonamento

Guilherme Diel (UDESC), Ana E. N. Kraus (UDESC) e Guilherme P. Koslovski (UDESC)

Balanceamento de carga com reparticionamento contínuo em sistemas com estado particionado

Douglas P. Luiz (UFSC) e Odorico M. Mendizabal (UFSC)

Monitoramento de Resíduos Poluentes com Tecnologia de Comunicação LPWAN

Draylon V. Lopes (UDESC) e Janine Kniess (UDESC)

Transmissão Sem Fio em Altas Frequências para rede 5G e 6G

Marcos Hiarley (UFPA) e Jose J. H. Ferreira Junior (UFPA)

Profiling and Bottlenecks Analysis of an Agent-based Dengue Fever Simulation Model

Pablo A. S. Hugen (Unioeste), Guilherme Galante (Unioeste), Rogerio L. Rizzi (Unioeste) e Eduardo A. A. Cunha (Unioeste)

Censo Online COMPED Coleta e Tratamento de Dados de Pessoas com Deficiência para o Desenvolvimento de Políticas Públicas em Jaraguá do Sul

Lucas E. Sasse (SENAI/SC), Rubio R. Costa (SENAI/SC), Tathiana A. Duarte (SENAI/SC) e Victor H. Furtado (SENAI/SC)

Impactos da Ferramenta KerasTuner em Modelo de Predição Baseado em LSTM para Pecuária Sustentável

Davi Lemos (UNIPAMPA), Bianca O. Durgante (UNIPAMPA), Naylor B. Perez (Embrapa) e Leonardo B. Pinho (UNIPAMPA)

14:30 - 16:00

Laboratório G23

Apresentação: Alysson Oliveira (Lexis Nexis Risk Solutions)

Ao longo do minicurso, os participantes terão a oportunidade de conhecer os conceitos essenciais de processamento e análise de volumes massivos de dados (Big Data) e o processo de desenvolvimento de um serviço de consulta fazendo uso da plataforma opensource composta por um Cluster Computacional de Alto Desempenho (HPCC Systems) e, também, a utilização de algoritmos de Aprendizado de Máquina, bem como terão a possibilidade de aplicar os conhecimentos adquiridos em um ambiente de treinamento disponibilizado em sala de aula. O curso requer apenas um computador com acesso à Internet e uma conta no GitHub.

16:00 - 16:30

Hall de Entrada

Coffee-break

16:30 - 17:30

Auditório

Apresentação: Eduardo Polvani Campaner (Eletrobras) e Tiago Fernandes Barbosa (Eletrobras)

Como as tecnologias digitais impulsionam melhorias contínuas nos processos de operação, manutenção e expansão do sistema elétrico nacional, resultando em redução de custos, maior eficiência e aumento da qualidade.

17:30 - 18:30

Auditório

Apresentação: Douglas Barbonaglia (The Insight), Giancarlo Marchesini (Instituto SENAI de Inovação em Sistemas Embarcados), Manuel Osório Binelo (Unijuí), Matheus Serpa (UFRGS) e Rodrigo da Rosa Righi (Unisinos)

Este painel irá abordar como a Inteligência Artificial (IA) e a Data Science estão promovendo transformações significativas no mercado e na academia. Iniciaremos com uma introdução aos conceitos fundamentais e aplicações práticas destas disciplinas em diversos setores, enfatizando o potencial de inovação e os desafios associados. Progredindo para uma análise de casos de sucesso e obstáculos enfrentados em pesquisas acadêmicas e implementações industriais, o painel proporcionará um entendimento equilibrado do impacto atual da IA e da Data Science. Concluiremos com um foco nas tendências emergentes e no futuro destas tecnologias, explorando as inovações mais recentes e como elas estão moldando novos caminhos para o avanço tecnológico, preparando os participantes para as oportunidades e transformações que esses desenvolvimentos trarão.

18:30 - 19:30

Auditório

Encerramento





ERAD/RS 2024

Todos os direitos reservados