Lambda3 Podcast
Lambda3 Podcast 282 – Responsabilidade e Ética em Ciência de Dados
Hoje vamos falar um pouco sobre ética e responsabilidade quando do uso de dados, principalmente quando da coleta e análise de grande quantidade de dados e, obviamente, dos problemas advindos do uso de tal Big Data.
Entre no nosso grupo do Telegram e compartilhe seus comentários com a gente: https://lb3.io/telegram
Feed do podcast: www.lambda3.com.br/feed/podcast
Feed do podcast somente com episódios técnicos: www.lambda3.com.br/feed/podcast-tecnico
Feed do podcast somente com episódios não técnicos: www.lambda3.com.br/feed/podcast-nao-tecnico
Pauta:
- 
Quais problemas podem advir do uso indiscriminado de IA & ML?
 - 
O que é uso ético e responsável de dados? Por que essa discussão tem surgido com mais força nos últimos anos? Qual a importância?
 - 
Hoje em dia muito se tem discutido a respeito dos vieses em bases de dados e, principalmente, aplicações automatizadas. Como poderíamos definir melhor o que é um uso ético e responsável de dados?
 - 
Questão do viés em dados e algoritmos, existem bons exemplos onde essa questão foi tratada de maneira adequada?
 - 
A discussão sobre ética e responsabilidade em IA é um dilema social ou técnico?
 - 
De quem é a responsabilidade quando tratamos de problemas e preconceitos advindos de sistemas de IA? E ainda sobre isso, qual o papel do desenvolvedor em garantir sistemas éticos?
 - 
Quais os caminhos para começar essa discussão com o meu time e quem deve estar a frente da discussão?
 - 
Os governos devem estabelecer diretrizes e leis sobre isso ou a discussão sobre responsabilidade deve ficar a cargo das empresas?
 - 
O Brasil se encontra em comparação com outros países quando falamos do estado da arte e do desenvolvimento ético em IA?
 - 
Existem frameworks ou técnicas que auxiliam na construção de sistemas de IA garantindo mais transparência e ética?
 
Links Citados:
- Exemplo de interrupção de uso de reconhecimento facial – Por que a Cufa interrompeu o uso de reconhecimento facial após polêmica | Tecnologia | G1 (globo.com)
 - Watch Coded Bias | Netflix
 - Fairlearn
 - Responsible AI Resources – Microsoft AI
 - Responsible AI Toolkit | TensorFlow
 - Responsible AI practices – Google AI
 - FATE: Fairness, Accountability, Transparency, and Ethics in AI: Projects – Microsoft Research
 - GitHub – interpretml/interpret: Fit interpretable models. Explain blackbox machine learning.
 - Fairness, accountability, transparency, ethics – Amazon Science
 - Justice: What’s The Right Thing To Do? Episode 01 “THE MORAL SIDE OF MURDER” – YouTube
 - Using the What-If Tool | AI Platform Prediction | Google Cloud
 - Google AI Blog: Setting Fairness Goals with the TensorFlow Constrained Optimization Library (googleblog.com)
 - fairlearn.postprocessing package — Fairlearn 0.5.0 documentation
 
Participantes:
- Ahirton Lopes – @AhirtonLopes
 - Bianca Ximenes – @biancaxis
 - Vinicius Caridá – @vfcarida
 
Edição:
Créditos das músicas usadas neste programa:
- Music by Kevin MacLeod (incompetech.com) licensed under Creative Commons: By Attribution 3.0 – creativecommons.org/licenses/by/3.0
 
Lambda3 Podcast