Page 52 - ARTE!Brasileiros #54
P. 52
REPORTAGEM INTELIGÊNCIA ARTIFICIAL NAS ARTES
de fazer grandes descontos em seus dispositivos para decisões com base em seu aprendizado, de forma algu-
que possam garantir uma maior potencialidade lucrativa ma será obrigada a tomar as decisões que deveríamos
no setor cultural?”. ter tomado, ou aquelas que serão aceitáveis para nós”.
Somando a óptica qualitativa à quantitativa, apre- No que concerne o desenvolvimento ético da iA, de
sentada pela Oxford Economics, o historiador e filósofo acordo com a co-diretora do Human-Centered Ai Institute,
Yuval Noah Harari acrescentaria à equação a natureza da Universidade de Stanford, Fei-Fei Li, é necessário
do trabalho e sua especialização: “Digamos que você dar as boas-vindas aos estudos multidisciplinares da iA,
mude a maior parte da produção de Honduras ou Ban- em uma polinização cruzada com a economia, a ética,
gladesh para os EUA e a Alemanha - porque os salários o direito, a filosofia, a história, as ciências cognitivas e
humanos não fazem mais parte da equação [em um assim por diante, “porque há muito mais que precisamos
cenário onde a automação e a iA ocupam trabalhos hoje entender em termos do impacto ético social, humano e
conduzidos por humanos] - e é mais barato produzir a antropológico da iA”. Ainda no campo acadêmico, Hutson
camisa na Califórnia do que em Honduras. Então o que sugere que “conferências e periódicos possam orientar o
as pessoas lá farão? E você pode dizer: ‘oK, mas haverá que é publicado, levando em consideração este impacto
muito mais empregos para engenheiros de software’. mais amplo da tecnologia durante a revisão por pares
Mas não estamos ensinando as crianças em Honduras e exigindo submissões para tratar de questões éticas”.
a serem engenheiros de software”. Em conjunto, ele pontua, agências de financiamento
e conselhos de revisão internos em universidades e
agentes ou Ferramentas? ia e étiCa empresas poderiam intervir para moldar a pesquisa já
As estimativas relacionadas à automação parecem ser em seu estágio inicial. No estágio posterior à publica-
mais razoáveis. Para além delas, é difícil ter um cenário ção das descobertas científicas, as regulamentações
claro para o futuro da iA seja em relação à criatividade podem garantir que as empresas não vendam produtos
ou à consciência. “A previsão tecnológica é particular- e serviços prejudiciais, e as leis ou tratados podem se
mente arriscada”, afirma Lloyd, “visto que as tecnologias incumbir que os governos não os implantem.
progridem por uma série de refinamentos, são travadas
por obstáculos e superadas pela inovação. Muitos obs-
táculos e algumas inovações podem ser antecipados,
mas outros não”.
Para Dennett, por exemplo, a longo prazo, uma “iA
forte”, ou inteligência artificial geral, é possível em prin-
cípio, mas não desejável. “A iA muito mais restrita, que
é praticamente possível hoje, não é necessariamente
má. Mas apresenta seu próprio conjunto de perigos”,
alerta. Segundo o filósofo, nós não precisamos de
agentes artificiais conscientes - ao que ele se refere
como “iA forte” - pois há um excesso de agentes natu-
rais conscientes, o suficiente para lidar com quaisquer
tarefas que devam ser reservadas para essas “entidades
especiais e privilegiadas”; ao contrário, precisaríamos
sim de ferramentas inteligentes.
FOTO: AI-DA ROBOT PROJECT / REPRODUÇÃO DO SITE autônomos que possam se tornar (e, em princípio, podem
Como justificativa para não produzir agentes arti-
ficiais conscientes, Dennett considera que “por mais
ser tão autônomos, tão dotados de auto aprimoramento
e criação quanto qualquer pessoa), eles não comparti-
lham conosco, agentes naturais conscientes, a nossa
vulnerabilidade ou mortalidade”. Na sua afirmação, ele
ecoa o escrito do pai da cibernética, Norbert Wiener,
que, acautelado, reiterou: “A máquina que é parecida
com o jinn (gênio), que pode aprender e pode tomar
52 Ai-Da Self-portrait I, 2019