XXIII Escola Regional de Alto Desempenho da Região Sul

Minicursos

Abaixo, encontram-se detalhes sobre os seis minicursos aceitos para apresentação na ERAD/RS 2023.

Minicurso 1

DevOps para HPC: Como configurar um cluster para uso compartilhado

Horário e local: 10/05 (09:00 - 11:30) — Laboratório 401

PDF:

Resumo: O compartilhamento de recursos para a execução de aplicações de alto desempenho é uma tarefa considerável. Requisitos como controle de usuários, compartilhamento de dados, assim como a reserva e isolamento de recursos são cruciais no sistema. Neste minicurso, apresentaremos um conjunto de softwares que pode ser utilizado para resolver tais desafios, sempre demonstrado as configurações possíveis para adequar o sistema a ser compartilhado para os requisitos dos usuários. A pilha de software é inspirada na utilizada no PCAD (Parque Computacional de Alto Desempenho) do Grupo de Processamento Paralelo e Distribuído da Universidade Federal do Rio Grande do Sul.

Autores

Lucas Leandro Nesi
Lucas Leandro Nesi

Possui graduação em Ciência da Computação pela Universidade do Estado de Santa Catarina (2017) e mestrado pela Universidade Federal do Rio Grande do Sul (2019) e atualmente persegue um doutorado em Computação pela Universidade Federal do Rio Grande do Sul com bolsa do Conselho Nacional de Pesquisa (CNPq). Realiza pesquisas na área de processamento de alto desempenho, especialmente em problemas que envolvem sistemas com múltiplos nós computacionais equipados com múltiplas GPUs e CPUs.

Lucas Mello Schnorr
Lucas Mello Schnorr

Possui graduação em Ciência da Computação pela Universidade Federal de Santa Maria (2003), mestrado em Computação pela Universidade Federal do Rio Grande do Sul (2005), doutorado em Computação pela Universidade Federal do Rio Grande do Sul (2009), pós-doutorado pela Centre National de la Recherche Scientifique (2011) e pós-doutorado pela Institut National de Recherche en Informatique et en Automatique(2017). Atualmente é Professor Adjunto da Universidade Federal do Rio Grande do Sul e orientador do Programa de Pós-Graduação em Computação (nível máximo na avaliação da CAPES). Conduz pesquisas em ambiente internacional. Tem experiência na área de Ciência da Computação, com ênfase em Sistemas de Computação e Processamento de Alto Desempenho.

Minicurso 2

Uso de diretivas de OpenMP (básico)

Horário e local: 10/05 (09:00 - 11:30) — Laboratório 418

PDF:

Resumo: OpenMP é uma interface de programação paralela usada para a geração implícita de threads em CPUs e GPUs, o que possibilita uma computação heterogênea. O padrão é baseado em diretivas de compilação, isto é, linhas de comando são inseridas em um código-fonte e tratadas em tempo de pré-compilação. O paralelismo é gerado pelas diretivas, as quais podem delimitar a região concorrente de código. Apesar da simplicidade de injeção de paralelismo em um determinado programa, a grande maioria dos usuários da interface limita-se a utilizar recursos elementares, como o paralelismo de laços em ambientes multiprocessados em detrimento de outras formas de invocação de operações concorrentes não tão difundidas. Neste contexto, este minicurso tem como objetivo apresentar como diferentes tipos de diretivas de OpenMP podem ser chamadas em uma aplicação e avaliar o desempenho paralelo que cada uma produz. Este estudo de caso busca mensurar especialmente a performance dos recursos disponíveis pelas versões mais recentes do padrão OpenMP.

Autores

Claudio Schepke
Claudio Schepke

Claudio Schepke possui graduação em Ciência da Computação pela Universidade Federal de Santa Maria (2005) e mestrado (2007) e doutorado (2012) em Computação pela Universidade Federal do Rio Grande do Sul, sendo este feito na modalidade sanduíche na Technische Universität Berlin, Alemanha (2010-2011). É professor associado da Universidade Federal do Pampa (UNIPAMPA), campus Alegrete/RS desde 2012, atuando como coordenador acadêmico (2016, 2018 e 2019) e diretor do campus (2020). Tem experiência na área de Ciência da Computação, com ênfase em Programação Paralela, conforme orientações e publicações científicas realizadas. Atua principalmente nos seguintes temas: processamento de alto desempenho, interfaces de programação paralela, aplicações científicas e computação em nuvem. Tem participado ativamente na organização da ERAD/RS em seus mais diferentes níveis de exigência, por muitos anos.

João Vicente Ferreira Lima

João Vicente Ferreira Lima possui graduação em Ciência da Computação pela Universidade Federal de Santa Maria (2006), mestrado em Computação pela Universidade Federal do Rio Grande do Sul (2009) e doutorado em Computação em co-tutela entre a Université de Grenoble e Universidade Federal do Rio Grande do Sul (2014). Atualmente é Professor Adjunto do Departamento de Linguagens e Sistemas de Computação da Universidade Federal de Santa Maria. Tem experiência na área de Ciência da Computação, com ênfase em Processamento Paralelo de Alto Desempenho, atuando principalmente nos seguintes temas: programação paralela e linguagens de programação.

Natiele Lucca

Natiele Lucca é mestre em Engenharia de Software (2023) e graduada em Ciência da Computação (2020) pela Universidade Federal do Pampa (UNIPAMPA). Tem experiência em programação paralela e aplicações científicas.

Minicurso 3

Explorando Técnicas de Compressão para Melhorar a Eficiência de Tratamento de Dados IoT

Horário e local: 11/05 (09:00 - 11:30) — Auditório 517

PDF:

Resumo: A área de Internet das Coisas, ou IoT, vem crescendo continuamente e oferecendo inúmeras oportunidades em diversas áreas. Esses dispositivos interconectados detectam, monitoram e coletam diversos tipos de dados do ambiente físicos, de modo que aplicações de IoT vem sendo amplamente utilizadas em sistemas de transporte, indústria, educação, casas inteligentes, agricultura e saúde, por exemplo. Nesse contexto, aplicações de monitoramento remoto normalmente requerem a gravação, processamento e transmissão de grandes volumes de dados. Essa necessidade, contudo, se depara com as limitações intrínsecas destes dispositivos, os quais se caracterizam por restrição de consumo de bateria, capacidades limitadas de processamento e largura de banda. Para lidar com esses desafios, as técnicas de compactação podem ser usadas para diminuir o volume de dados antes de transmiti-los para outras camadas da infraestrutura, de modo que essa redução também resulta em menor consumo de energia que seria demandada na transmissão dos dados. O objetivo desse curso é explorar as possibilidades de compactação de dados entre variados tipos de algoritmos e suas características, bem como quais devem ser os critérios para escolha do mais adequado considerando os tipos de dados que se deseja processar, conforme sua finalidade e grau de criticidade.

Autores

Rodrigo da Rosa Righi
Rodrigo da Rosa Righi

Professor com Pós-doutorado, Korea Advanced Institute of Science and Technology (KAIST), Coreia do Sul, 2013. Doutorado em Computação, 2009, UFRGS e TU Berlin; Mestrado em Computação, 2005, UFRGS e Graduação em Computação pela UFSM, 2003. Atua na coordenação de projeto com a DELL desde 2017. A DELL vê a Unisinos como referência e qualidade na entrega técnica dos projetos, bem como na qualidade de gerência financeira do Escritório de Projetos. Ainda, gerencia projeto com a HT Micron na área de Indústria 4.0, instrumentando as salas limpas da empresa com sensores e analisando os dados com Inteligência Artificial.

Alexandre Andrade
Alexandre Andrade

Graduado em Engenharia de Elétrica pela Universidade Federal do Rio Grande do Sul -UFRGS (1998). Mestrado em Computação em Computação Aplicada na Universidade do Vale dos Sinos - UNISINOS (2013), com trabalho desenvolvido em balanceamento de carga nos sistemas de processamento de transações financeiras eletrônicas. Atualmente cursa Doutorado na área de Internet das Coisas - IoT na UNISINOS. Experiência profissional no ramo de transações financeiras eletrônicas, captura e processamento de cartões de crédito e débito. Atua em projetos para automação comercial, instrumentação e programação de microprocessadores. Como superintendente de sistemas de processamento e canais digitais, lidera projetos voltados para alta disponibilidade e alto desempenho, com soluções de Front-end e Back-end.

Minicurso 4

Projeto de Aplicações Paralelas (básico)

Horário e local: 11/05 (09:00 - 11:30) — Auditório 516

PDF:

Resumo: Apresenta-se neste minicurso os conceitos de projeto e desenvolvimento de programas paralelos. O enfoque principal será dado para o projeto metodológico chamado PCAM, proposto por Foster, e definido por quatro fases de criação de um programa paralelo: Particionamento, Comunicação, Aglomeração e Mapeamento. Também serão abordados padrões de projeto que podem ser aliados à metodologia PCAM e uma visão geral dos principais modelos de programas paralelos.

Autores

Guilherme Galante
Guilherme Galante

Bacharel em Informática pela Universidade Estadual do Oeste do Paraná (2003), Mestre pela Universidade Federal do Rio Grande do Sul (2006) e Doutor pela Universidade Federal do Paraná (2014). É Professor do curso de Ciência da Computação da Universidade Estadual do Oeste do Paraná desde 2006 e do Programa de Pós-Graduação em Computação (PPGComp) desde 2019. As áreas de atuação são: Sistemas Computacionais e Computação Aplicada.

Minicurso 5

Aprendizado de máquina e computação de alto desempenho

Horário e local: 12/05 (09:00 - 11:30) — Auditório 517

PDF:

Resumo: A Inteligência Artificial é um campo que vem evoluindo radicalmente nos últimos anos. Ela tem se mostrado uma ferramenta com alto poder de capilaridade, sendo incorporada nas mais diversas áreas econômicas e sociais. Sua aplicação em áreas como automação, robótica, classificação de dados, reconhecimento de imagens e em sistemas especialistas já é bastante sólida, mas tem chamado a atenção sua aplicação em áreas relacionadas à subjetividade humana, como a criação de ilustrações, de textos e música. A principal metodologia para a criação de agentes inteligentes é baseada no aprendizado máquina, que consiste em apresentar uma série de exemplos a um sistema computacional. Esses exemplos frequentemente compreendem grandes volumes de dados, e o processo de aprendizagem é um método iterativo de otimização que precisa ser repetido muitas vezes sobre esse conjunto de dados. Essas características fazem com que o desenvolvimento de modelos de inteligência artificial dependam de computação de alto desempenho. Modelos de inteligência artificial mais complexos, baseados em redes neurais artificiais com muitas camadas ocultas, empregam modelos de aprendizagem profunda (deep learning). A aprendizagem profunda é um problema de otimização de alta ordem, que exige uma capacidade de processamento ainda maior. Muitos modelos de inteligência artificial são baseados em redes neurais artificiais, que são modelos matemáticos/computacionais inspirados em neurônios biológicos. Assim como sua fonte de inspiração, sua arquitetura é massivamente paralela, o que torna possível a aplicação de diversas técnicas de computação paralela para acelerar o processo de aprendizagem. Neste minicurso serão abordados os fundamentos do aprendizado de máquina, suas implicações quanto à computação de alto desempenho, e as principais técnicas empregadas nesse contexto. Serão explorados modelos computacionais, frameworks mais utilizados, e diversos trabalhos científicos do estado da arte.

Autores

Manuel Osório Binelo
Manuel Osório Binelo

Formado em Ciência da Computação pela Universidade de Cruz Alta, Mestre em Modelagem Matemática pela Unijuí e Doutor em Engenharia de Teleinformática pela Universidade Federal do Ceará. Atualmente é professor da Unijuí nos cursos de graduação em computação e engenharias, e no Programa de Pós-Graduação em Modelagem Matemática e Computacional.

Edson Luiz Padoin
Edson Luiz Padoin

Professor da Universidade Regional do Noroeste do Estado do Rio Grande do Sul (UNIJUI). Possui doutorado em Computação pela Universidade Federal do Rio Grande do Sul com período sanduíche em Université de Grenoble Alpes na França e mestrado em Engenharia da Produção com ênfase em Tecnologia da Informação pela Universidade Federal de Santa Maria. Tem interesse nos seguintes temas: Eficiência Energética, Balanceamento de Cargas, Computação de Alto Desempenho em Arquiteturas Heterogêneas de Baixo Consumo, Sistemas operacionais e Distribuídos.

Minicurso 6

Tecnologias de Storage

Horário e local: 12/05 (09:00 - 11:30) — Auditório 516

Resumo: O minicurso de armazenamento abordará as principais formas de conexões existentes, tais como SATA, SCSI, SAS, iSCSI, Fibre Channel, entre outras. Nele, os participantes poderão compreender as vantagens e desvantagens de cada uma dessas opções, bem como entender a importância da escolha correta na hora de definir a solução de armazenamento adequada para cada situação. Serão discutidos os diversos tipos de dispositivos de armazenamento existentes no mercado, tais como unidades de disco rígido (HDD), unidades de estado sólido (SSD), unidades de fita (tape drive), cartões de memória, entre outros. Os participantes poderão entender as características de cada um desses dispositivos, bem como saber qual a melhor opção. O treinamento disponibilizado será interativo, com vários equipamentos para serem vistos durante o minicurso.

Autores

Guilherme Friol (SDC)
Guilherme Friol (SDC)

Especialista em computação com anos de experiência em ambientes computacionais de alta demanda, virtualização e HPC. Atua como consultor em arquitetura e otimização de sistemas de alto desempenho. Desenvolveu projetos relevantes junto a grandes instituições de pesquisa e notórios nomes da computação nacional em machine learning e redes neurais.





ERAD/RS 2023

Todos os direitos reservados