O que você aprenderá
- Entender as diferenças entre processamento utilizando CPU e GPU
- Utilizar o cuDF como substituto ao pandas para processamento acelerado na GPU
- Implementar códigos utilizando o cuDF para manipulação de DataFrames
- Utilizar o cuPy como substituto ao numpy para processamento acelerado na GPU
- Utilizar o cuML como substituo ao scikit-learn para processamento acelerado na GPU
- Implementar projetos de machine learning completos utilizando o cuDF e cuML
- Comparar o desempenho das bibliotecas clássicas do Python que são executadas na CPU com as bibliotecas do RAPIDS executadas na GPU
- Implementar projetos com o DASK para processamento paralelo e distribuído
- Integrar o DASK com o cuDF e cuML para desempenho superior na GPU
Requisitos
- Lógica de programação
- Programação básica em Python
- Machine learning: entendimento básico do processo de treinamento de algoritmos, bem como as técnicas de classificação e regressão
Descrição
A ciência de dados e o machine learning representam os maiores setores computacionais do mundo, onde melhorias modestas na precisão dos modelos analíticos podem se traduzir em bilhões de impacto no resultado final. Os cientistas de dados constantemente se esforçam para treinar, avaliar, iterar e otimizar modelos para alcançar resultados altamente precisos e um desempenho excepcional. Com a poderosa plataforma RAPIDS da NVIDIA, o que antes levava dias agora pode ser realizado em questão de minutos, tornando a construção e implantação de modelos de alto valor mais fácil e ágil. Em Data Science, a capacidade computacional adicional significa insights mais rápidos e eficazes. RAPIDS aproveita o poder do NVIDIA CUDA para acelerar todo o fluxo de trabalho de treinamento de modelos de ciência de dados, executando-o em unidades de processamento gráfico (GPUs).
Neste curso, você vai aprender tudo o que precisa saber para levar suas aplicações de aprendizado de máquina para outro nível! Confira abaixo alguns dos tópicos que serão abordados:
- Utilizar as bibliotecas cuDF, cuPy e cuML ao invés do Pandas, Numpy e scikit-learn; o que garante que os dados sejam processados e algoritmos de machine learning executados com alto desempenho na GPU
- Comparar o desempenho das bibliotecas clássicas do Python com o RAPIDS. Em alguns experimentos executados durante as aulas, conseguimos taxas de aceleração superiores a 900x. Isso indica que em determinadas bases de dados e com determinados algoritmos, o RAPIDS consegue ser 900 vezes mais rápido!
- Criar um projeto completo e passo a passo de machine learning utilizando o RAPIDS, desde o carregamento dos dados até as previsões
- Utilizar o DASK para paralelismo de tarefas em múltiplas GPUs ou CPUs; integrado com o RAPIDS para um desempenho superior
Durante o curso vamos utilizar a linguagem de programação Python e o Google Colab on-line. Desta forma, você não precisa possuir uma GPU local para acompanhar as aulas, pois utilizaremos o hardware gratuito disponibilizado pelo Google.
Para quem é este curso
- Cientistas de Dados e profissionais de Inteligência Artificial que querem aumentar o desempenho de suas aplicações
- Profissionais que trabalham ou desejam trabalhar na área de ciência de dados, especialmente aqueles que desejam melhorar suas habilidades em treinamento de modelos de machine learning e análise de dados
- Qualquer pessoa que tenha interesse em aprender sobre machine learning, especialmente com foco em implementações de alto desempenho usando GPUs
- Profissionais que estão envolvidos no desenvolvimento e implementação de modelos de machine learning
- Alunos de graduação e pós-graduação que estão estudando disciplinas ligadas a área de Inteligência Artificial
Publicado em outubro de 2023
Para quem pretende intender tecnicamente as diferenças e como fazer para utiliza GPU em comparação com CPU, o curso é excelente.