XXIII Escola Regional de Alto Desempenho da Região Sul

Cronograma


8:00 - 9:00

Saguão do Prédio 32

Registro

9:00 - 10:00

Laboratório 401

Apresentação: Lucas Leandro Nesi (UFRGS) e Lucas Mello Schnorr (UFRGS)

O compartilhamento de recursos para a execução de aplicações de alto desempenho é uma tarefa considerável. Requisitos como controle de usuários, compartilhamento de dados, assim como a reserva e isolamento de recursos são cruciais no sistema. Neste minicurso, apresentaremos um conjunto de softwares que pode ser utilizado para resolver tais desafios, sempre demonstrado as configurações possíveis para adequar o sistema a ser compartilhado para os requisitos dos usuários. A pilha de software é inspirada na utilizada no PCAD (Parque Computacional de Alto Desempenho) do Grupo de Processamento Paralelo e Distribuído da Universidade Federal do Rio Grande do Sul.

9:00 - 10:00

Laboratório 418

Apresentação: Claudio Schepke (UNIPAMPA), João Vicente Ferreira Lima (UFSM) e Natiele Lucca (UNIPAMPA)

OpenMP é uma interface de programação paralela usada para a geração implícita de threads em CPUs e GPUs, o que possibilita uma computação heterogênea. O padrão é baseado em diretivas de compilação, isto é, linhas de comando são inseridas em um código-fonte e tratadas em tempo de pré-compilação. O paralelismo é gerado pelas diretivas, as quais podem delimitar a região concorrente de código. Apesar da simplicidade de injeção de paralelismo em um determinado programa, a grande maioria dos usuários da interface limita-se a utilizar recursos elementares, como o paralelismo de laços em ambientes multiprocessados em detrimento de outras formas de invocação de operações concorrentes não tão difundidas. Neste contexto, este minicurso tem como objetivo apresentar como diferentes tipos de diretivas de OpenMP podem ser chamadas em uma aplicação e avaliar o desempenho paralelo que cada uma produz. Este estudo de caso busca mensurar especialmente a performance dos recursos disponíveis pelas versões mais recentes do padrão OpenMP.

10:00 - 10:30

Saguão do Prédio 32

Coffee-break

10:30 - 11:30

Laboratório 401

Apresentação: Lucas Leandro Nesi (UFRGS) e Lucas Mello Schnorr (UFRGS)

O compartilhamento de recursos para a execução de aplicações de alto desempenho é uma tarefa considerável. Requisitos como controle de usuários, compartilhamento de dados, assim como a reserva e isolamento de recursos são cruciais no sistema. Neste minicurso, apresentaremos um conjunto de softwares que pode ser utilizado para resolver tais desafios, sempre demonstrado as configurações possíveis para adequar o sistema a ser compartilhado para os requisitos dos usuários. A pilha de software é inspirada na utilizada no PCAD (Parque Computacional de Alto Desempenho) do Grupo de Processamento Paralelo e Distribuído da Universidade Federal do Rio Grande do Sul.

10:30 - 11:30

Laboratório 418

Apresentação: Claudio Schepke (UNIPAMPA), João Vicente Ferreira Lima (UFSM) e Natiele Lucca (UNIPAMPA)

OpenMP é uma interface de programação paralela usada para a geração implícita de threads em CPUs e GPUs, o que possibilita uma computação heterogênea. O padrão é baseado em diretivas de compilação, isto é, linhas de comando são inseridas em um código-fonte e tratadas em tempo de pré-compilação. O paralelismo é gerado pelas diretivas, as quais podem delimitar a região concorrente de código. Apesar da simplicidade de injeção de paralelismo em um determinado programa, a grande maioria dos usuários da interface limita-se a utilizar recursos elementares, como o paralelismo de laços em ambientes multiprocessados em detrimento de outras formas de invocação de operações concorrentes não tão difundidas. Neste contexto, este minicurso tem como objetivo apresentar como diferentes tipos de diretivas de OpenMP podem ser chamadas em uma aplicação e avaliar o desempenho paralelo que cada uma produz. Este estudo de caso busca mensurar especialmente a performance dos recursos disponíveis pelas versões mais recentes do padrão OpenMP.

11:30 - 12:00

Auditório do Prédio 32

Apresentação: Paulo César Fonseca (Versatus)

Nesta palestra serão apresentadas as soluções de hardware para computação de alto desempenho que a empresa fornece, com especial foco nas soluções da Dell Technologies, e também os serviços especializados em HPC que disponibiliza. Adicionalmente o apresentador irá falar sobre as tendências deste mercado e sobre as diferentes maneiras de angariar fundos para pesquisas.

12:00 - 14:00

Almoço

14:00 - 14:30

Auditório do Prédio 32

Apresentação: Leonardo Fialho (Eviden)

Nesta palestra Leonardo Fialho apresentará a visão da EVIDEN para o futuro da era Exascale. O que esperar da computação de alto desempenho quando o que era grande ficará ainda maior? Quais são os desafios do Exascale? O que é possível fazer? Quais as limitações de hardware? Quais as limitações da física? O que vem por aí? Uma breve visão do futuro que se materializará nos próximos anos dentro e fora da EVIDEN.

14:30 - 16:00

Auditório 517

Chair: Guilherme Galante (UNIOESTE)

Comparação entre as Diretivas parallel do e teams distribute de OpenMP em uma Aplicação de Meios Porosos

Gabriel Dineck Tremarin (UNIPAMPA) e Claudio Schepke (UNIPAMPA)

Análise do overhead em aplicações paralelas OpenMP utilizando OMPT e Score-P

João Vitor Laurino (FURG) e Vinicius Garcia Pinto (FURG)

Utilização de redes neurais artificiais como estratégia para o reconhecimento de emoções

Mayara Meotti (UNIJUI), Cristiano Alex Künas (UFRGS) e Edson Luiz Padoin (UNIJUI)

Avaliação do paralelismo em classificadores taxonômicos de sequências de rRNA usando Qiime2

Pedro Gaspary (PUCRS), Caetano Müler (PUCRS), Dalvan Griebler (PUCRS/SETREM) e Eduardo Eizirik (PUCRS)

KNN exato em GPU

Michel Brasil Cordeiro (UFPR), Bruno Meyer (UFPR) e Wagner Zola (UFPR)

Algoritmo KNN paralelo em cluster com MPI

Henrique Rieger (UFPR) e Wagner Zola (UFPR)

Algoritmo de Árvore Binomial Balanceada para Broadcast com MPI

João Lucas Cordeiro (UFPR) e Wagner Zola (UFPR)

14:30 - 16:00

Auditório 516

Chair: Andriele Busatto do Carmo (UNISINOS)

Desafios da modelagem do refinamento adaptativo das malhas: um estudo sobre o MARE2DEM

Bruno Alves (UFRGS) e Lucas Mello Schnorr (UFRGS)

EnergyLB: combinando balanceamento de carga dinâmico com técnicas DVFS para reduzir o consumo de energia

Cristiano Alex Künas (UFRGS), Matthias Diener (UFRGS), Edson Luiz Padoin (UNIJUI) e Philippe Olivier Alexandre Navaux (UFRGS)

Avaliando Paralelismo em Dispositivos com Recursos Limitados

Renato Barreto Hoffmann Filho (PUCRS) e Dalvan Griebler (PUCRS/SETREM)

Uma proposta para sistemas de arquivos criptográficos em Kernel-Space

Jorge Correia (UFPR) e Wagner Zola (UFPR)

Geração de Timetabling considerando avaliação do ENADE

Matheus Fabian (UPF) e Marcelo Rebonatto (UPF)

Enabling Dynamic Rescheduling in Kubernetes Environments with Kubernetes Scheduling Extension (KSE)

Pedro Moritz de Carvalho Neto (UFSC), Márcio Castro (UFSC) e Frank Siqueira (UFSC)

16:00 - 16:30

Saguão do Prédio 32

Coffee-break

16:30 - 17:30

Auditório do Prédio 32

Apresentação: Ilson Schames (Scherm)

Com algumas pitadas da história dos últimos 30 anos da ciência da computação no Brasil, falaremos da história da Empresa Supermicro, um importante player mundial e assídua participante desta história. Além disso, falaremos das mais novas tecnologias e lançamentos no cenário de transformações atual.

17:30 - 18:30

Auditório do Prédio 32

Apresentação: Márcio Castro (UFSC)

The cloud computing paradigm democratized compute infrastructure access to millions of resource-strained organizations, applying economics of scale to massively reduce infrastructure costs. In the High Performance Computing (HPC) context, the benefits of using public cloud resources make it an attractive alternative to expensive on-premises HPC clusters. In this talk, we discuss the challenges and limitations of current solutions and present our three recent contributions to this area: (i) HPC@Cloud: a provider-agnostic software framework that comprises a set of key software tools to assist in the migration, test and execution of HPC applications in public clouds; (ii) fault tolerance strategies based on in-memory checkpoint restart considering the particularities of unreliable cloud computing environments (a.k.a spot market); and (iii) an empirical approach for estimating cloud infrastructure costs to help researchers gain a quick impression of the pros and cons of the reserved and spot cloud options for CPU-intensive physics simulations and similar classes of applications.

18:30 - 19:30

Auditório do Prédio 32

Abertura

19:30 - 21:30

TecnoPUC - Café Coworking

Confraternização

8:00 - 9:00

Saguão do Prédio 32

Registro

9:00 - 10:00

Auditório 517

Apresentação: Rodrigo da Rosa Righi (UNISINOS) e Alexandre Andrade (UNISINOS)

A área de Internet das Coisas, ou IoT, vem crescendo continuamente e oferecendo inúmeras oportunidades em diversas áreas. Esses dispositivos interconectados detectam, monitoram e coletam diversos tipos de dados do ambiente físicos, de modo que aplicações de IoT vem sendo amplamente utilizadas em sistemas de transporte, indústria, educação, casas inteligentes, agricultura e saúde, por exemplo. Nesse contexto, aplicações de monitoramento remoto normalmente requerem a gravação, processamento e transmissão de grandes volumes de dados. Essa necessidade, contudo, se depara com as limitações intrínsecas destes dispositivos, os quais se caracterizam por restrição de consumo de bateria, capacidades limitadas de processamento e largura de banda. Para lidar com esses desafios, as técnicas de compactação podem ser usadas para diminuir o volume de dados antes de transmiti-los para outras camadas da infraestrutura, de modo que essa redução também resulta em menor consumo de energia que seria demandada na transmissão dos dados. O objetivo desse curso é explorar as possibilidades de compactação de dados entre variados tipos de algoritmos e suas características, bem como quais devem ser os critérios para escolha do mais adequado considerando os tipos de dados que se deseja processar, conforme sua finalidade e grau de criticidade.

9:00 - 10:00

Auditório 516

Apresentação: Guilherme Galante (UNIOESTE)

Apresenta-se neste minicurso os conceitos de projeto e desenvolvimento de programas paralelos. O enfoque principal será dado para o projeto metodológico chamado PCAM, proposto por Foster, e definido por quatro fases de criação de um programa paralelo: Particionamento, Comunicação, Aglomeração e Mapeamento. Também serão abordados padrões de projeto que podem ser aliados à metodologia PCAM e uma visão geral dos principais modelos de programas paralelos.

10:00 - 10:30

Saguão do Prédio 32

Coffee-break

10:30 - 11:30

Auditório 517

Apresentação: Rodrigo da Rosa Righi (UNISINOS) e Alexandre Andrade (UNISINOS)

A área de Internet das Coisas, ou IoT, vem crescendo continuamente e oferecendo inúmeras oportunidades em diversas áreas. Esses dispositivos interconectados detectam, monitoram e coletam diversos tipos de dados do ambiente físicos, de modo que aplicações de IoT vem sendo amplamente utilizadas em sistemas de transporte, indústria, educação, casas inteligentes, agricultura e saúde, por exemplo. Nesse contexto, aplicações de monitoramento remoto normalmente requerem a gravação, processamento e transmissão de grandes volumes de dados. Essa necessidade, contudo, se depara com as limitações intrínsecas destes dispositivos, os quais se caracterizam por restrição de consumo de bateria, capacidades limitadas de processamento e largura de banda. Para lidar com esses desafios, as técnicas de compactação podem ser usadas para diminuir o volume de dados antes de transmiti-los para outras camadas da infraestrutura, de modo que essa redução também resulta em menor consumo de energia que seria demandada na transmissão dos dados. O objetivo desse curso é explorar as possibilidades de compactação de dados entre variados tipos de algoritmos e suas características, bem como quais devem ser os critérios para escolha do mais adequado considerando os tipos de dados que se deseja processar, conforme sua finalidade e grau de criticidade.

10:30 - 11:30

Auditório 516

Apresentação: Guilherme Galante (UNIOESTE)

Apresenta-se neste minicurso os conceitos de projeto e desenvolvimento de programas paralelos. O enfoque principal será dado para o projeto metodológico chamado PCAM, proposto por Foster, e definido por quatro fases de criação de um programa paralelo: Particionamento, Comunicação, Aglomeração e Mapeamento. Também serão abordados padrões de projeto que podem ser aliados à metodologia PCAM e uma visão geral dos principais modelos de programas paralelos.

11:30 - 12:00

Auditório do Prédio 32

Apresentação: Mônica Costa (HPE)

A HPE possui liderança mundial em Computação de Alto Desempenho, sendo o Supercomputador FRONTIER HPE Cray EX o número 1 do Top 500 (Nov 2022), entre outros Supercomputadores HPE que também integram a lista do Top 500 e serão apresentados para demonstrar a diversidade de arquitetura (CPUs e Aceleradores) e infraestrutura disponíveis na linha de Supercomputadores HPE Cray, que utilizam interconexão Cray Slingshot. Vamos apresentar brevemente também o Portfolio de HPC/AI da HPE.

12:00 - 13:30

Almoço

13:30 - 14:30

Auditório do Prédio 32

Apresentação: Guilherme Friol (SDC)

Falaremos sobre os últimos 10 anos de tecnologia e as tendências para os próximos anos em HPC, Armazenamento e Inteligencia artificial.

14:30 - 16:00

Auditório 517

Chair: Charles Christian Miers (UDESC)

Cloud computing para deploy de modelos de deep learning para a classificação de Retinopatia Diabética

Matheus Camargo (UFRGS), Cristiano Alex Künas (UFRGS) e Philippe Olivier Alexandre Navaux (UFRGS)

Comparando o Desempenho entre Computação em Nuvem e Servidor Local na Execução do Método Fletcher

Brenda Schussler (UFRGS), Pedro Rigon (UFRGS), Matheus da Silva Serpa (UFRGS), Cristiano Alex Künas (UFRGS), Alexandre Carissimi (UFRGS), Jairo Panetta (ITA) e Philippe Olivier Alexandre Navaux (UFRGS)

Análise do Sobrecusto de Utilização de Contêineres para Execução de Aplicações de HPC na Nuvem

Lívia Ferrão (UFSC), Vanderlei Pereira Filho (UFSC) e Márcio Castro (UFSC)

Proposta de um Cluster para Aplicações de HPC com o uso de Docker e Infiniband

Weslley Silva (UFSC), Guilherme Geronimo (UFSC) e Odorico Mendizabal (UFSC)

Análise de Viabilidade do Perfilamento de Aplicações de HPC Baseada em Contadores de Hardware na AWS

Luiz Fernando Althoff (UFSC), Márcio Castro (UFSC) e Vanderlei Pereira Filho (UFSC)

Análise de Correlação no Esforço de Desenvolvimento de Aplicações Paralelas

Eduardo Eichner (PUCRS), Gabriella Andrade (PUCRS), Dalvan Griebler (PUCRS/SETREM) e Luiz Gustavo Fernandes (PUCRS)

14:30 - 16:00

Auditório 516

Chair: Guilherme Koslovski (UDESC)

Utilização de aprendizado por reforço para adaptar a quantidade de recursos e acelerar aplicações

Lucas Nesi (UFRGS), Lucas Mello Schnorr (UFRGS) e Arnaud Legrand (CNRS - France)

Otimização do Mapeamento de Threads e Dados em Aplicações com Memória Transacional usando Aprendizado de Máquina

Tiago Perlin (UFPEL) e Andre Rauber Du Bois (UFPEL)

Uma proposta para Federated Learning em Cibersegurança

Bruno Meyer (UFPR), Aurora Pozo (UFPR), Michele Nogueira (UFMG) e Wagner Zola (UFPR)

Avaliação de Diretivas Paralelas em uma Aplicação de Simulação de Secagem de Grãos

Natiele Lucca (UNIPAMPA), Claudio Schepke (UNIPAMPA), Aline Mello (UNIPAMPA) e Anna Victória Gonçalves Marciano (UNIPAMPA)

Executando na Nuvem um Detector de Padrões de Acesso de E/S

Cristiano Alex Künas (UFRGS), Edson Luiz Padoin (UNIJUI), Jean L Bez (Lawrence Berkeley National Laboratory - USA), Alexandre Carissimi (UFRGS) e Philippe Olivier Alexandre Navaux (UFRGS)

Utilização de Machine Learning para Irrigação de Precisão

Rogerio P dos Santos (Universidade Lusofona - Portugal), Marko Beko (Universidade Lusofona - Portugal) e Valderi Leithardt (Instituto Politécnico de Portalegre - Portugal)

14:30 - 16:00

Laboratório 409

Apresentação: Lucas Silveira Kupssinskü (PUCRS) e Adilson Medronha (PUCRS)

Nesse tutorial você vai conhecer a base do funcionamento das redes neurais profundas que vem revolucionando a área de aprendizado de máquina. Você vai aprender sobre o funcionamento de um único Perceptron, do Perceptron Multicamadas e Redes Neurais Convolucionais com aplicações em visão computacional. Você vai aprender a colocar esses conceitos em prática usando pytorch. Para acompanhar esse tutorial é necessário ter conhecimentos básicos de programação em python, álgebra linear e cálculo.

16:00 - 16:30

Saguão do Prédio 32

Coffee-break

16:30 - 17:30

Auditório do Prédio 32

Apresentação: Matheus Rocha (Dell)

Soluções e cases de sucesso com Dell e NVIDIA para HPC.

17:30 - 18:30

Auditório do Prédio 32

Apresentação: César A. F. De Rose (PUCRS)

A temática do Painel desta edição da ERAD/RS envolve como as novas tecnologias estão impactando (se estão) o ensino na área de arquiteturas e programação paralelas, ou seja, se reecursos como computação em nuvem (AWS labs, Google, Azure, etc.), novas bibliotecas e ferramentas, somado às demandas de modernas aplicações de Inteligência Artificial (Chat GPT/GitHub Copilot) têm alterado (ou irão alterar) a forma como se ensina AP e PP em currículos de Graduação e/ou Pós-Graduação.

18:30 - 19:30

Auditório do Prédio 32

Apresentação: Marco Zanata (UFPR)

One of the main challenges for modern processors is the data transfer between processor and memory. Such data movement implies high latency and high energy consumption. In this context, Near-Data Processing (NDP) proposals have started to gain acceptance as accelerator devices. Such proposals alleviate the memory bottleneck by moving instructions to data whereabouts. The first proposals date back to the 1970s, but only in the 2010s could we observe an increase in papers addressing NDP. It occurred with the appearance of 3D and 2.5D stacked chips using Through-Silicon Via (TSV) with logic and memory stacked layers. This talk presents a brief history of these accelerators, focusing on the applications domains migrated to near-data and the proposed architectures. It also presents a taxonomy to classify architectural proposals according to their data distance.

20:00 - 22:00

Mezanino do Espaço 32

Jantar

8:00 - 9:00

Saguão do Prédio 32

Registro

9:00 - 10:00

Auditório 517

Apresentação: Manuel Osório Binelo (UNIJUI) e Edson Luiz Padoin (UNIJUI)

A Inteligência Artificial é um campo que vem evoluindo radicalmente nos últimos anos. Ela tem se mostrado uma ferramenta com alto poder de capilaridade, sendo incorporada nas mais diversas áreas econômicas e sociais. Sua aplicação em áreas como automação, robótica, classificação de dados, reconhecimento de imagens e em sistemas especialistas já é bastante sólida, mas tem chamado a atenção sua aplicação em áreas relacionadas à subjetividade humana, como a criação de ilustrações, de textos e música. A principal metodologia para a criação de agentes inteligentes é baseada no aprendizado máquina, que consiste em apresentar uma série de exemplos a um sistema computacional. Esses exemplos frequentemente compreendem grandes volumes de dados, e o processo de aprendizagem é um método iterativo de otimização que precisa ser repetido muitas vezes sobre esse conjunto de dados. Essas características fazem com que o desenvolvimento de modelos de inteligência artificial dependam de computação de alto desempenho. Modelos de inteligência artificial mais complexos, baseados em redes neurais artificiais com muitas camadas ocultas, empregam modelos de aprendizagem profunda (deep learning). A aprendizagem profunda é um problema de otimização de alta ordem, que exige uma capacidade de processamento ainda maior. Muitos modelos de inteligência artificial são baseados em redes neurais artificiais, que são modelos matemáticos/computacionais inspirados em neurônios biológicos. Assim como sua fonte de inspiração, sua arquitetura é massivamente paralela, o que torna possível a aplicação de diversas técnicas de computação paralela para acelerar o processo de aprendizagem. Neste minicurso serão abordados os fundamentos do aprendizado de máquina, suas implicações quanto à computação de alto desempenho, e as principais técnicas empregadas nesse contexto. Serão explorados modelos computacionais, frameworks mais utilizados, e diversos trabalhos científicos do estado da arte.

9:00 - 10:00

Auditório 516

Apresentação: Guilherme Friol (SDC)

O minicurso de armazenamento abordará as principais formas de conexões existentes, tais como SATA, SCSI, SAS, iSCSI, Fibre Channel, entre outras. Nele, os participantes poderão compreender as vantagens e desvantagens de cada uma dessas opções, bem como entender a importância da escolha correta na hora de definir a solução de armazenamento adequada para cada situação. Serão discutidos os diversos tipos de dispositivos de armazenamento existentes no mercado, tais como unidades de disco rígido (HDD), unidades de estado sólido (SSD), unidades de fita (tape drive), cartões de memória, entre outros. Os participantes poderão entender as características de cada um desses dispositivos, bem como saber qual a melhor opção. O treinamento disponibilizado será interativo, com vários equipamentos para serem vistos durante o minicurso.

10:00 - 10:30

Saguão do Prédio 32

Coffee-break

10:30 - 11:30

Auditório 517

Apresentação: Manuel Osório Binelo (UNIJUI) e Edson Luiz Padoin (UNIJUI)

A Inteligência Artificial é um campo que vem evoluindo radicalmente nos últimos anos. Ela tem se mostrado uma ferramenta com alto poder de capilaridade, sendo incorporada nas mais diversas áreas econômicas e sociais. Sua aplicação em áreas como automação, robótica, classificação de dados, reconhecimento de imagens e em sistemas especialistas já é bastante sólida, mas tem chamado a atenção sua aplicação em áreas relacionadas à subjetividade humana, como a criação de ilustrações, de textos e música. A principal metodologia para a criação de agentes inteligentes é baseada no aprendizado máquina, que consiste em apresentar uma série de exemplos a um sistema computacional. Esses exemplos frequentemente compreendem grandes volumes de dados, e o processo de aprendizagem é um método iterativo de otimização que precisa ser repetido muitas vezes sobre esse conjunto de dados. Essas características fazem com que o desenvolvimento de modelos de inteligência artificial dependam de computação de alto desempenho. Modelos de inteligência artificial mais complexos, baseados em redes neurais artificiais com muitas camadas ocultas, empregam modelos de aprendizagem profunda (deep learning). A aprendizagem profunda é um problema de otimização de alta ordem, que exige uma capacidade de processamento ainda maior. Muitos modelos de inteligência artificial são baseados em redes neurais artificiais, que são modelos matemáticos/computacionais inspirados em neurônios biológicos. Assim como sua fonte de inspiração, sua arquitetura é massivamente paralela, o que torna possível a aplicação de diversas técnicas de computação paralela para acelerar o processo de aprendizagem. Neste minicurso serão abordados os fundamentos do aprendizado de máquina, suas implicações quanto à computação de alto desempenho, e as principais técnicas empregadas nesse contexto. Serão explorados modelos computacionais, frameworks mais utilizados, e diversos trabalhos científicos do estado da arte.

10:30 - 11:30

Auditório 516

Apresentação: Guilherme Friol (SDC)

O minicurso de armazenamento abordará as principais formas de conexões existentes, tais como SATA, SCSI, SAS, iSCSI, Fibre Channel, entre outras. Nele, os participantes poderão compreender as vantagens e desvantagens de cada uma dessas opções, bem como entender a importância da escolha correta na hora de definir a solução de armazenamento adequada para cada situação. Serão discutidos os diversos tipos de dispositivos de armazenamento existentes no mercado, tais como unidades de disco rígido (HDD), unidades de estado sólido (SSD), unidades de fita (tape drive), cartões de memória, entre outros. Os participantes poderão entender as características de cada um desses dispositivos, bem como saber qual a melhor opção. O treinamento disponibilizado será interativo, com vários equipamentos para serem vistos durante o minicurso.

10:30 - 11:30

Auditório do Prédio 32

Reunião da CRAD

11:30 - 12:00

Auditório do Prédio 32

Apresentação: Gustavo Castro (Globo)

Na Globo, os times estão constantemente evoluindo tecnologicamente. Como resultado, novas ferramentas são criadas e novos conhecimentos são compartilhados diariamente. Isso também acontece no time de Backstage Interatividade, que desenvolve aplicações capazes de atender mais de 3,2 milhões de requisições por minuto sem impacto para o usuário final. E estamos sempre buscando novas formas de melhorar o desempenho de nossas aplicações. Nesta apresentação, discutiremos os resultados e limitações observados em uma prova de conceito. Nosso objetivo foi explorar maneiras de reduzir o tempo de resposta entre o servidor de aplicação e o cliente. Para isso, substituímos os recursos exclusivos para cache por técnicas de cache space-efficienty in-memory na aplicação principal e sincronizamos esses dados em um cluster com múltiplos nós.

12:00 - 13:30

Almoço

13:30 - 14:30

Auditório do Prédio 32

Apresentação: Thiago Haidar (Seagate)

Welcome to a better way to store data. For over 40 years, Seagate has been offering the most innovative and easily integrated storage services built on trust, affordability, and ease. We consistently deliver a seamless experience at the best value. Accelerate Data Center Modernization At Seagate®, we never sacrifice capacity for performance. Now you can consolidate compute and storage in one chassis—easily scaling your data systems while reducing your footprint with our versatile and feature-rich design. A New Category of Intelligent Storage Exos® CORVAULT™ is a high-performance, self-healing block storage system that delivers multi-petabyte capacity, five-nines availability, and hyperscale efficiencies for data center and macro edge environments.

14:30 - 16:00

Auditório 516

Chair: Edson Luiz Padoin (UNIJUI)

Implementação e Avaliação de Desempenho da Linguagem Rust no NAS Embarassingly Parallel Benchmark

Bernardo Zomer (PUCRS), Renato Barreto Hoffmann Filho (PUCRS) e Dalvan Griebler (PUCRS/SETREM)

Avaliação do Paralelismo dos Kernels EP e CG em Sistemas Embarcados

Lucas Marchesan Cunha (PUCRS), Renato B. Hoffmann (PUCRS), Dalvan Griebler (PUCRS/SETREM) e Isabel H. Manssour (PUCRS)

Avaliação do paralelismo nos kernels NAS Parallel Benchmarks usando estruturas de dados da biblioteca C++

Arthur Bianchessi (PUCRS), Leonardo Mallmann (PUCRS) e Dalvan Griebler (PUCRS/SETREM)

Uma proposta de análise de desempenho para rastreamento de fluxos de trabalho usando SPIFFE/SPIRE

Milton Pagliusi (UDESC) e Charles Miers (UDESC)

Implementação e Avaliação do Paralelismo de Flink nas Aplicações de Processamento de Log e Análise de Clicks

Gabriel Fim (SETREM) e Dalvan Griebler (PUCRS/SETREM)

Análise de Desempenho de Hash Tables Não-Bloqueantes na Linguagem C++

Douglas Luiz (UFSC) e Odorico Mendizabal (UFSC)

Proposta para o uso de Contadores de Performance em Hardware para detecção de Malware

Bruno Dal Pontte (UFPR), Simone Dominico (UFPR) e Marco Alves (UFPR)

14:30 - 16:00

Auditório do Prédio 32

Boas-vindas e apresentação inicial (14:30)

Projeto ADA - Mulheres na Computação (14:35)

Soraia Raupp Musse (PUCRS)

Projeto Gurias da Politécnica (15:00)

Sandra Einloft (PUCRS) e Natália Dal Pizzol (PUCRS)

Palestra: Como o gênero influencia a saúde mental de quem trabalha? (15:15)

Beatriz Gross Curia e Dayane Santos Martins

Espaço para perguntas (15:50)

16:00 - 16:30

Saguão do Prédio 32

Coffee-break

16:30 - 17:30

Auditório 517

Chair: Gabriella Lopes Andrade (PUCRS)

Treinamento Paralelo de Redes Neurais usando o Modelo de Atores

Ariam Moresco Bartsch (UFPEL) e André Du Bois (UFPEL)

Estudo Sobre Spark nas Aplicações de Processamento de Log e Análise de Cliques

Luan Dopke (SETREM) e Dalvan Griebler (PUCRS/SETREM)

Impacto da biblioteca padrão do C++ nos Kernels do NAS Parallel Benchmarks

Leonardo Mallmann (PUCRS), Arthur Bianchessi (PUCRS) e Dalvan Griebler (PUCRS/SETREM)

Benchmarking da Aplicação de Comparação de Similaridade entre Imagens com Flink, Storm e SPar

Leonardo Faé (PUCRS), Dalvan Griebler (PUCRS/SETREM) e Isabel Manssour (PUCRS)

Spike Detection Stream Benchmark implementada em MPI

Caetano Müler (PUCRS) e Dalvan Griebler (PUCRS/SETREM)

16:30 - 17:30

Auditório 516

Chair: César A. F. De Rose (PUCRS)

Uma proposta de análise comparativa de desempenho de implementações Barnes-Hut em clusters de computadores

Rodrigo Morante Blanco (UFPR) e Wagner Zola (UFPR)

Avaliação da Auto-Adaptação de Micro-Lote para aplicação de Processamento de Streaming em GPUs

Ricardo Leonarczyk (SETREM) e Dalvan Griebler (PUCRS/SETREM)

Provendo melhorias na geração de código para GPUs na SPar

Gabriell Araujo (PUCRS), Dalvan Griebler (PUCRS/SETREM) e Luiz Gustavo Fernandes (PUCRS)

17:30 - 18:30

Auditório do Prédio 32

Apresentação: Otavio Parraga (PUCRS), João Paulo Aires (PUCRS), Dalvan Griebler (PUCRS/SETREM) e Lucas Silveira Kupssinskü (PUCRS)

Com o desenvolvimento de modelos como ChatGPT, o Processamento de Linguagem Natural (PLN) vem sendo discutido cada vez mais como um caminho para a obtenção de uma Inteligência Artificial Geral (AGI - Artificial General Intelligence). O processamento de texto por parte de computadores passou por diversas fases ao longo dos anos, partindo de simples representações estatísticas das palavras até os atuais, e complexos, modelos baseados em redes neurais profundas. Neste painel, primeiro apresentaremos uma introdução da área através dos fundamentos gerais de PLN, considerando as tarefas mais utilizadas e as diferentes maneiras de representação de texto. Na segunda parte, discutiremos as novas arquiteturas neurais responsáveis pelas recentes inovações da área, explorando seu funcionamento e suas capacidades.

18:30 - 19:30

Auditório do Prédio 32

Encerramento





ERAD/RS 2023

Todos os direitos reservados