Guia Logo
Início/Artigos/Infraestruturas Digitais como Atores-Rede
Teoria Ator-Rede
Infraestruturas Digitais
Plataformas de IA
Estudos de Ciência e Tecnologia

Infraestruturas Digitais como Atores-Rede: Uma Análise Sociotécnica das Plataformas de IA

Por Prof. Me. Ivan Prizon
35 minutos de leitura
Publicado em 10 de junho de 2024

Resumo

Este artigo examina as infraestruturas digitais contemporâneas, particularmente as plataformas de inteligência artificial, através da lente teórico-metodológica da Teoria Ator-Rede (TAR). Argumentamos que estas infraestruturas não são meros suportes técnicos passivos, mas atores-rede complexos que emergem de associações heterogêneas entre elementos humanos e não-humanos. Através de uma análise detalhada dos processos de tradução, mediação e estabilização, demonstramos como plataformas de IA participam ativamente na reconfiguração de práticas sociais, econômicas e epistêmicas. O artigo contribui para os Estudos de Ciência e Tecnologia ao oferecer um framework analítico para compreender a materialidade e agência distribuída das infraestruturas digitais contemporâneas, suas políticas ontológicas e implicações éticas.

Representação conceitual de infraestruturas digitais como atores-rede

Figura 1: Representação conceitual de infraestruturas digitais como atores-rede em ecologias sociotécnicas complexas

1. Introdução

As infraestruturas digitais contemporâneas, particularmente as plataformas de inteligência artificial, têm transformado profundamente como interagimos, trabalhamos, aprendemos e produzimos conhecimento. Estas infraestruturas não são meros suportes técnicos passivos, mas configurações sociotécnicas complexas que emergem de associações heterogêneas entre elementos humanos e não-humanos. Como observa Star (1999, p. 377), "estudar uma infraestrutura significa desenterrar as decisões e escolhas políticas, éticas e sociais que se tornaram invisíveis ao longo do tempo".

A Teoria Ator-Rede (TAR), desenvolvida por Bruno Latour, Michel Callon, John Law e outros, oferece um arcabouço teórico-metodológico particularmente adequado para analisar estas infraestruturas. Como argumenta Latour (2005, p. 12), a TAR não é uma teoria sobre o social, mas "uma teoria sobre como estudar o social, como rastrear associações". Esta abordagem nos permite examinar como infraestruturas digitais emergem, se estabilizam e transformam através de redes heterogêneas de associações.

Este artigo aplica a perspectiva da TAR para analisar as infraestruturas digitais contemporâneas, com foco particular nas plataformas de inteligência artificial. Argumentamos que estas infraestruturas podem ser compreendidas como atores-rede que participam ativamente na reconfiguração de práticas sociais, econômicas e epistêmicas. Como observa Bowker et al. (2010, p. 99), "infraestruturas não são objetos que emergem de um vácuo tecnológico, mas sempre existem em relação a práticas organizadas".

"Uma infraestrutura ocorre quando a tensão entre o local e o global é resolvida. Isso é, uma infraestrutura emerge quando práticas locais são possibilitadas por uma tecnologia em larga escala que pode ser usada de maneira natural, pronta-à-mão." (Star & Ruhleder, 1996, p. 114)

Nossa análise se baseia em três contribuições teóricas principais da TAR: (1) o princípio de simetria generalizada, que propõe analisar humanos e não-humanos com o mesmo repertório conceitual (Callon, 1986); (2) o conceito de tradução, que examina como atores mobilizam, deslocam e transformam interesses, entidades e significados (Callon, 1984); e (3) a distinção entre intermediários e mediadores, que diferencia entidades que transportam significado sem transformação daquelas que transformam, traduzem e modificam o significado (Latour, 2005).

O artigo está estruturado em cinco seções. Após esta introdução, a segunda seção apresenta o arcabouço teórico da TAR e sua aplicação ao estudo de infraestruturas digitais. A terceira seção analisa a constituição sociotécnica das plataformas de IA como atores-rede. A quarta seção examina os processos de tradução, mediação e estabilização através dos quais estas plataformas reconfiguram práticas sociais. A quinta seção discute as implicações políticas e éticas desta análise, com foco nas questões de agência distribuída, responsabilidade e governança.

2. Arcabouço Teórico: A TAR e as Infraestruturas Digitais

A Teoria Ator-Rede (TAR) emergiu nos anos 1980 como uma abordagem para estudar a ciência e a tecnologia que desafiava divisões estabelecidas entre o social e o técnico, o humano e o não-humano. Como explica Law (1992, p. 380), a TAR "trata o social e o técnico como inseparáveis" e propõe que "a sociedade, as organizações, os agentes e as máquinas são todos efeitos gerados em redes de diversos materiais". Esta seção explora os conceitos fundamentais da TAR e sua aplicação ao estudo de infraestruturas digitais.

2.1 Conceitos Fundamentais da TAR

A TAR se fundamenta em três princípios metodológicos essenciais articulados por Callon (1986) em seu estudo seminal sobre os pescadores e vieiras da Baía de St. Brieuc: agnosticismo (imparcialidade entre atores envolvidos em controvérsias), simetria generalizada (compromisso com a explicação de pontos de vista conflitantes nos mesmos termos) e livre associação (abandono de distinções a priori entre o natural e o social).

Central para a TAR é o conceito de ator-rede, que Latour (1996, p. 373) descreve como "simultaneamente um ator cuja atividade consiste em fazer alianças com novos elementos, e uma rede capaz de redefinir e transformar aquilo de que é feita". Esta concepção desafia a distinção entre agência e estrutura, propondo que atores são sempre redes e redes são sempre atores.

Outro conceito fundamental é o de tradução, que Callon (1984, p. 196) define como "o mecanismo pelo qual os mundos social e natural progressivamente tomam forma". A tradução envolve quatro momentos: problematização (definição de atores e estabelecimento de pontos de passagem obrigatórios), interessamento (ações que visam impor e estabilizar a identidade de atores), alistamento (definição e coordenação de papéis) e mobilização (garantir que os porta-vozes representem adequadamente suas coletividades).

Latour (2005, p. 39) também distingue entre intermediários, que "transportam significado ou força sem transformação", e mediadores, que "transformam, traduzem, distorcem e modificam o significado ou os elementos que supostamente carregam". Esta distinção é crucial para compreender como infraestruturas digitais não apenas facilitam, mas transformam ativamente as práticas que mediam.

2.2 Infraestruturas como Objetos de Estudo

O estudo de infraestruturas apresenta desafios metodológicos específicos devido à sua natureza frequentemente invisível e tomada como garantida. Como observam Star e Ruhleder (1996, p. 113), "a qualidade de infraestrutura é uma relação, não uma coisa", e infraestruturas tipicamente se tornam visíveis apenas quando falham. Bowker e Star (1999, p. 33) argumentam que infraestruturas são "fundamentalmente relacionais" e "se tornam reais na relação com práticas organizadas".

Para abordar estes desafios, Star (1999, p. 380) propõe uma "etnografia de infraestrutura" que envolve "estudar coisas chatas" e "desenterrar a política e as vozes silenciadas embutidas em tais coisas". Esta abordagem ressoa com o chamado de Latour (2005, p. 148) para "seguir os atores" e rastrear as associações através das quais redes sociotécnicas são construídas e mantidas.

Estudos recentes têm aplicado a TAR e abordagens relacionadas para analisar infraestruturas digitais contemporâneas. Plantin et al. (2018, p. 293) examinam a "plataformização de infraestruturas", argumentando que plataformas digitais estão assumindo funções tradicionalmente associadas a infraestruturas públicas, enquanto infraestruturas estabelecidas estão adotando características de plataformas. Helmond (2015, p. 1) analisa a "plataformização da web", demonstrando como plataformas como Facebook reconfiguram a web para suas próprias lógicas através de processos de "programabilidade, acessibilidade e interoperabilidade".

"Infraestruturas não são objetos que emergem de um vácuo tecnológico, mas sempre existem em relação a práticas organizadas. Estudar uma infraestrutura significa desenterrar as decisões e escolhas políticas, éticas e sociais que se tornaram invisíveis ao longo do tempo." (Bowker et al., 2010, p. 99)

2.3 Plataformas de IA como Atores-Rede

As plataformas de inteligência artificial representam um caso particularmente interessante para análise através da TAR devido à sua natureza híbrida e distribuída. Como argumenta Gillespie (2010, p. 348), o termo "plataforma" é estrategicamente ambíguo, evocando simultaneamente conotações técnicas, arquitetônicas, figurativas e políticas. Esta ambiguidade permite que plataformas digitais se posicionem como intermediários neutros enquanto atuam como mediadores que transformam ativamente as práticas que facilitam.

No caso específico de plataformas de IA, Crawford e Joler (2018) mapearam a "anatomia de um sistema de IA" como uma vasta rede sociotécnica que inclui recursos naturais, trabalho humano, dados históricos, infraestruturas computacionais e frameworks classificatórios. Seu trabalho revela como sistemas aparentemente autônomos e desencorporados são, na realidade, profundamente materiais e dependentes de extensas redes de recursos e trabalho frequentemente invisibilizados.

De forma similar, Ananny e Crawford (2018, p. 974) argumentam que sistemas algorítmicos são melhor compreendidos como "redes sociotécnicas com poder" que incluem "não apenas códigos e dados, mas também humanos, instituições, normas e temporalidades". Esta perspectiva ressoa com a concepção da TAR de atores-rede como configurações heterogêneas que emergem de associações entre diversos elementos humanos e não-humanos.

3. Constituição Sociotécnica das Plataformas de IA

Nesta seção, analisamos a constituição sociotécnica das plataformas de IA como atores-rede, examinando os diversos elementos heterogêneos que são mobilizados e associados em sua construção. Como argumenta Latour (2005, p. 46), "um ator é aquilo que é levado a agir por muitos outros", e plataformas de IA são precisamente tais atores-rede que emergem de associações entre múltiplos elementos.

3.1 Materialidades Infraestruturais

Contrariamente às narrativas que apresentam a IA como etérea ou imaterial, plataformas de IA são profundamente materiais, dependendo de extensas infraestruturas físicas. Como documentam Hogan e Vonderau (2019, p. 1), data centers - os "motores materiais da economia digital" - consomem vastas quantidades de energia, água e recursos naturais. Estas materialidades são frequentemente invisibilizadas através do que Hu (2015, p. 2) chama de "política da verticalidade", onde infraestruturas são deliberadamente ocultadas para manter a ilusão de serviços "em nuvem" desencorporados.

A materialidade das plataformas de IA também se manifesta nos dispositivos através dos quais usuários acessam seus serviços. Como argumenta Dourish (2017, p. 31), "a materialidade da computação não é apenas uma questão de chips de silício e placas de circuito, mas também de como estes artefatos estão incorporados em práticas sociais e culturais". Smartphones, assistentes de voz e outros dispositivos "inteligentes" não são meros pontos de acesso, mas atores que configuram ativamente como interagimos com plataformas de IA.

Estas materialidades infraestruturais não são neutras, mas incorporam e performam valores, políticas e relações de poder específicas. Como observa Parks (2015, p. 355), infraestruturas são "sites de contestação onde diferentes atores negociam o design, uso e significado de sistemas tecnológicos". No caso de plataformas de IA, estas negociações envolvem questões de propriedade, acesso, controle e governança que moldam fundamentalmente como estas tecnologias são desenvolvidas e implementadas.

3.2 Ecologias de Dados e Trabalho

Plataformas de IA dependem criticamente de vastas quantidades de dados para treinamento e operação. Como argumenta Gitelman (2013, p. 3), "dados não são dados; dados são obtidos". Esta observação ressalta que dados não são recursos naturais pré-existentes, mas são ativamente produzidos através de práticas específicas de coleta, classificação e processamento.

A produção de dados para plataformas de IA envolve diversas formas de trabalho, frequentemente invisibilizadas ou desvalorizadas. Gray e Suri (2019, p. 13) documentam o "trabalho fantasma" realizado por trabalhadores humanos que rotulam, verificam e refinam dados para sistemas de IA, argumentando que "a automação não está substituindo humanos, mas reconfigurando o que significa ser humano". De forma similar, Irani (2015, p. 225) analisa como plataformas como Amazon Mechanical Turk organizam e disciplinam o "microtrabalho" necessário para sistemas de IA, criando novas formas de precariedade laboral.

Além do trabalho explicitamente dedicado à produção de dados, plataformas de IA também extraem valor do trabalho cotidiano não remunerado de usuários. Como argumenta Terranova (2000, p. 33), a economia digital depende de "trabalho livre" - atividades voluntárias, não pagas e prazerosas que, não obstante, produzem valor. Quando usuários interagem com plataformas de IA, suas ações, preferências e até correções de erros são capturadas como dados que melhoram os sistemas e geram valor para as empresas que os controlam.

"A produção de inteligência artificial é fundamentalmente uma prática extrativista. Sua operação requer mineração de materiais, energia, trabalho humano, e dados em escala planetária. A maioria destes processos são escondidos e tornam-se invisíveis, enquanto as plataformas de IA são apresentadas como etéreas, eficientes e autônomas." (Crawford & Joler, 2018, p. 7)

3.3 Arquiteturas Algorítmicas e Interfaces

As arquiteturas algorítmicas que constituem plataformas de IA não são meros artefatos técnicos, mas configurações sociotécnicas que incorporam escolhas, valores e políticas específicas. Como argumenta Seaver (2019, p. 412), algoritmos são "objetos culturais, inscritos com valores e imaginários que refletem as preocupações de seus criadores e os contextos sociais em que são desenvolvidos". Estas inscrições moldam fundamentalmente como plataformas de IA processam dados, tomam decisões e interagem com usuários.

Interfaces desempenham um papel crucial na mediação entre plataformas de IA e seus usuários. Como observa Suchman (2007, p. 23), interfaces não são meros pontos de contato, mas "zonas de encontro" onde significados, identidades e relações são negociados e reconstruídos. No caso de plataformas de IA, interfaces frequentemente ocultam a complexidade e materialidade dos sistemas subjacentes, apresentando-os como assistentes intuitivos, neutros e até antropomórficos.

Esta "política da interface" (Galloway, 2012, p. 54) tem implicações significativas para como usuários compreendem e interagem com plataformas de IA. Como argumenta Chun (2011, p. 59), interfaces produzem "usuários" como sujeitos específicos com certas capacidades, limitações e responsabilidades. No caso de plataformas de IA, interfaces frequentemente posicionam usuários como consumidores passivos de serviços "mágicos" ou "inteligentes", obscurecendo as relações de poder, trabalho e extração que sustentam estes sistemas.

4. Processos de Tradução e Mediação

Nesta seção, examinamos os processos de tradução e mediação através dos quais plataformas de IA reconfiguram práticas sociais, econômicas e epistêmicas. Como argumenta Callon (1984, p. 196), tradução é o processo pelo qual atores "constroem definições e significados comuns, definem representatividades e co-optam uns aos outros em busca de objetivos individuais e coletivos". No caso de plataformas de IA, estes processos envolvem a mobilização, deslocamento e transformação de diversos atores, interesses e significados.

4.1 Problematização e Interessamento

O primeiro momento da tradução, segundo Callon (1984), é a problematização, onde certos atores definem problemas e estabelecem-se como "pontos de passagem obrigatórios" para sua resolução. No caso de plataformas de IA, empresas tecnológicas frequentemente problematizam questões sociais complexas como problemas técnicos que suas tecnologias podem resolver. Como observa Morozov (2013, p. 5), este "solucionismo tecnológico" redefine "situações sociais complexas como problemas claramente definidos com soluções definitivas e computáveis".

Por exemplo, plataformas de IA para educação frequentemente problematizam desafios educacionais como questões de eficiência, personalização ou escalabilidade, posicionando-se como soluções necessárias para estes problemas. Como argumenta Williamson (2017, p. 4), estas problematizações não são neutras, mas "refletem pressupostos particulares sobre o que conta como conhecimento válido, como a aprendizagem ocorre e como a educação deve ser organizada e governada".

O segundo momento da tradução é o interessamento, onde atores buscam alinhar os interesses de outros atores com os seus próprios. No caso de plataformas de IA, este processo frequentemente envolve a construção de narrativas sobre inovação, progresso e inevitabilidade tecnológica. Como observa Gillespie (2010, p. 352), plataformas digitais empregam estrategicamente o termo "plataforma" precisamente porque "pode ser posicionado para atrair usuários, anunciantes, produtores profissionais e clientes, além de negociar com reguladores".

Estas estratégias de interessamento não são meramente discursivas, mas materializadas em designs, interfaces e modelos de negócio específicos. Como argumenta van Dijck (2013, p. 12), plataformas digitais são "mecanismos que não apenas refletem o social, mas também o constituem ativamente", através de processos de "dataficação, mercantilização e seleção" que alinham práticas de usuários com interesses corporativos.

4.2 Alistamento e Mobilização

O terceiro momento da tradução é o alistamento, onde atores são definidos e coordenados em papéis específicos. No caso de plataformas de IA, este processo envolve a configuração de usuários, desenvolvedores, reguladores e outros atores em relações particulares com a tecnologia. Como observa Bucher (2018, p. 4), algoritmos não apenas classificam e ordenam conteúdo, mas também "produzem certos tipos de sujeitos sociais" através de suas operações.

Por exemplo, plataformas de IA para recrutamento alistam candidatos a emprego como "perfis" quantificáveis, recrutadores como "tomadores de decisão assistidos por IA" e dados históricos de contratação como "preditores de sucesso". Como argumenta Ajunwa (2019, p. 1671), estas configurações não são neutras, mas frequentemente reproduzem e amplificam vieses existentes, "automatizando a desigualdade" (Eubanks, 2018) através de sistemas aparentemente objetivos e meritocráticos.

O quarto momento da tradução é a mobilização, onde atores são deslocados e reagregados em novos espaços e configurações. No caso de plataformas de IA, este processo frequentemente envolve a extração, processamento e circulação de dados através de diversas infraestruturas e contextos. Como argumenta Kitchin (2014, p. 19), dados não são "crus", mas sempre "cozidos" através de processos específicos de coleta, classificação e análise que transformam fenômenos complexos em representações quantificáveis e computáveis.

Esta mobilização de dados não é um processo neutro, mas envolve o que Barocas e Selbst (2016, p. 677) chamam de "discriminação de dados", onde decisões aparentemente técnicas sobre quais dados coletar, como classificá-los e como analisá-los incorporam pressupostos normativos que podem reproduzir e amplificar desigualdades existentes. Como observa Noble (2018, p. 1), algoritmos não são neutros, mas "refletem e amplificam os valores de seus criadores e as desigualdades presentes na sociedade".

"Algoritmos não são simplesmente objetos técnicos, mas atores sociais em seu próprio direito. Eles não apenas implementam procedimentos projetados por engenheiros humanos, mas também aprendem de seus ambientes, adaptam-se a circunstâncias imprevistas e produzem resultados que não podem ser antecipados por seus criadores." (Seaver, 2017, p. 5)

4.3 Mediação e Transformação

Como mediadores, no sentido latouriano, plataformas de IA não apenas facilitam, mas transformam ativamente as práticas que mediam. Como argumenta Latour (2005, p. 39), mediadores "transformam, traduzem, distorcem e modificam o significado ou os elementos que supostamente carregam". No caso de plataformas de IA, esta mediação ocorre através de diversos mecanismos que reconfiguram como percebemos, conhecemos e agimos no mundo.

Um mecanismo crucial é o que Introna e Nissenbaum (2000, p. 169) chamam de "política da busca", onde algoritmos de classificação e recomendação moldam ativamente quais informações são visíveis e acessíveis para usuários. Como argumenta Gillespie (2014, p. 167), algoritmos não apenas selecionam informações relevantes, mas "participam na produção do conhecimento e na configuração da participação pública", determinando quais vozes, perspectivas e conhecimentos são amplificados ou marginalizados.

Outro mecanismo importante é o que Cheney-Lippold (2017, p. 6) chama de "categorização algorítmica", onde plataformas de IA classificam e segmentam usuários em categorias específicas que moldam suas experiências e oportunidades. Como observa Fourcade e Healy (2016, p. 9), estas classificações não são meras representações, mas "motores de classificação" que "transformam as situações que pretendem descrever" através de processos de feedback e performatividade.

Estas formas de mediação e transformação não são determinísticas, mas emergem de interações complexas entre diversos atores humanos e não-humanos. Como argumenta Kitchin (2017, p. 18), algoritmos são "contingentes, ontogênicos, performativos e executados", operando não como sistemas fechados e autônomos, mas como "conjuntos sociotécnicos" que são continuamente negociados, contestados e reconfigurados através de diversas práticas e contextos.

5. Implicações Políticas e Éticas

A análise das plataformas de IA como atores-rede tem implicações significativas para como compreendemos e abordamos questões políticas e éticas relacionadas a estas tecnologias. Como argumenta Winner (1980, p. 121), "artefatos têm política" - eles incorporam e impõem certas configurações de poder, autoridade e privilégio. Esta seção explora algumas destas implicações, com foco nas questões de agência distribuída, responsabilidade e governança.

5.1 Agência Distribuída e Responsabilidade

A perspectiva da TAR desafia concepções convencionais de agência como propriedade exclusiva de indivíduos humanos autônomos, propondo em vez disso uma compreensão da agência como distribuída através de redes heterogêneas de atores humanos e não-humanos. Como argumenta Bennett (2010, p. 21), agência é melhor compreendida como um "enxame" ou "confederação" de diversas forças e capacidades que se reúnem temporariamente para produzir efeitos específicos.

Esta concepção de agência distribuída tem implicações significativas para como atribuímos responsabilidade por ações e efeitos de sistemas de IA. Como observa Coeckelbergh (2020, p. 2055), a "lacuna de responsabilidade" em sistemas de IA não é meramente um problema técnico ou legal, mas um desafio filosófico que exige repensar fundamentalmente nossas concepções de agência, intencionalidade e responsabilidade.

Diversos autores têm proposto abordagens para abordar este desafio. Floridi e Sanders (2004, p. 349) argumentam por uma "ética sem agência", que foca nos efeitos de ações em vez de nas intenções de atores. Verbeek (2011, p. 5) propõe uma "moralidade tecnológica" que reconhece como tecnologias "co-constituem" ações morais e responsabilidades. Nissenbaum (1996, p. 29) desenvolve o conceito de "responsabilidade computacional" que distribui responsabilidade através de redes sociotécnicas complexas.

Estas abordagens compartilham um reconhecimento de que responsabilidade não pode ser localizada exclusivamente em atores humanos individuais ou em sistemas técnicos isolados, mas deve ser compreendida como distribuída através de redes sociotécnicas complexas. Como argumenta Jasanoff (2016, p. 117), precisamos desenvolver "imaginários sociotécnicos" que reconheçam a "co-produção" de tecnologias e ordens sociais, e que permitam formas mais inclusivas e democráticas de governança tecnológica.

5.2 Política Ontológica e Pluralismo

A análise das plataformas de IA como atores-rede também revela o que Mol (1999, p. 74) chama de "política ontológica" - como realidades específicas são "feitas, sustentadas ou permitidas a desaparecer" através de práticas sociotécnicas. No caso de plataformas de IA, esta política ontológica se manifesta em decisões sobre quais fenômenos são quantificados, quais categorias são utilizadas e quais relações são modeladas.

Como argumenta Bowker e Star (1999, p. 5), sistemas de classificação não são meros reflexos de uma realidade pré-existente, mas "tecnologias políticas" que "valorizam algumas perspectivas e silenciam outras". No caso de plataformas de IA, estas classificações frequentemente naturalizam e reforçam categorias sociais existentes, como gênero, raça e classe, tratando-as como propriedades essenciais de indivíduos em vez de como construções sociais contingentes e contestadas.

"A questão não é se os algoritmos são objetivos - eles não são - mas como suas particularidades são articuladas e justificadas, como são integrados na prática social, e como suas inevitáveis falhas são mitigadas ou resolvidas." (Gillespie, 2014, p. 179)

Diante desta política ontológica, diversos autores têm argumentado pela importância do pluralismo e da diversidade em sistemas sociotécnicos. Como observa Haraway (1988, p. 583), precisamos de "conhecimentos situados" que reconheçam a parcialidade e corporificação de todas as perspectivas, em vez de aspirar a uma objetividade desencorporada e universal. De forma similar, Benjamin (2019, p. 28) argumenta pela necessidade de "justiça tecnológica" que desafie a "nova Jim Code" - como tecnologias aparentemente neutras frequentemente reproduzem e amplificam hierarquias raciais existentes.

Estas perspectivas sugerem a necessidade de abordagens mais inclusivas e participativas ao design, desenvolvimento e governança de plataformas de IA. Como argumenta Costanza-Chock (2020, p. 6), precisamos de práticas de "design de justiça" que "centrem pessoas que são normalmente marginalizadas pelo design" e que reconheçam como "design pode, em vez disso, trabalhar para desafiar, em vez de reproduzir, a matriz de dominação".

5.3 Governança de Infraestruturas

A análise das plataformas de IA como infraestruturas sociotécnicas também levanta questões importantes sobre sua governança. Como argumenta DeNardis (2012, p. 721), a "governança da internet" não é apenas uma questão técnica, mas um "proxy para questões políticas mais amplas", incluindo liberdade de expressão, privacidade, propriedade intelectual e segurança nacional. De forma similar, a governança de plataformas de IA envolve questões fundamentais sobre poder, controle e accountability em sociedades digitais.

Diversos autores têm proposto frameworks para abordar estes desafios. Ananny e Crawford (2018, p. 983) argumentam por uma compreensão de "transparência algorítmica" que vá além da mera divulgação de código para examinar as "redes sociotécnicas com poder" que constituem sistemas algorítmicos. Pasquale (2015, p. 3) propõe uma "sociedade de conhecimento" em vez de uma "caixa preta" onde decisões algorítmicas são ocultadas por segredo comercial e complexidade técnica.

Estas propostas compartilham um reconhecimento de que a governança efetiva de plataformas de IA requer não apenas regulação técnica, mas engajamento com questões mais amplas de justiça social, econômica e epistêmica. Como argumenta Zuboff (2019, p. 15), o "capitalismo de vigilância" representa não apenas um novo modelo de negócio, mas uma "lógica de acumulação" que ameaça valores democráticos fundamentais de autonomia, privacidade e autodeterminação.

Diante destes desafios, diversos autores têm argumentado pela necessidade de abordagens mais democráticas e participativas à governança de infraestruturas digitais. Como observa Benkler (2006, p. 16), a "riqueza das redes" reside precisamente em seu potencial para permitir formas mais distribuídas e colaborativas de produção e governança. De forma similar, Kelty (2008, p. 3) examina como comunidades de software livre desenvolveram "públicos recursivos" capazes de criar e manter as infraestruturas técnicas e legais necessárias para sua própria existência.

6. Conclusão

Este artigo analisou as infraestruturas digitais contemporâneas, particularmente as plataformas de inteligência artificial, através da lente teórico-metodológica da Teoria Ator-Rede. Argumentamos que estas infraestruturas não são meros suportes técnicos passivos, mas atores-rede complexos que emergem de associações heterogêneas entre elementos humanos e não-humanos, e que participam ativamente na reconfiguração de práticas sociais, econômicas e epistêmicas.

Nossa análise demonstrou como plataformas de IA são constituídas através de diversas materialidades infraestruturais, ecologias de dados e trabalho, e arquiteturas algorítmicas e interfaces que incorporam e performam valores, políticas e relações de poder específicas. Examinamos os processos de tradução e mediação através dos quais estas plataformas mobilizam, deslocam e transformam diversos atores, interesses e significados, reconfigurando fundamentalmente como percebemos, conhecemos e agimos no mundo.

Esta análise tem implicações significativas para como compreendemos e abordamos questões políticas e éticas relacionadas a plataformas de IA. Argumentamos pela necessidade de reconhecer a agência distribuída em sistemas sociotécnicos complexos, de abordar criticamente a política ontológica incorporada em classificações e modelos algorítmicos, e de desenvolver abordagens mais democráticas e participativas à governança de infraestruturas digitais.

Como observa Star (1999, p. 379), "estudar a política invisível de padrões e a riqueza visível da experiência vivida" é um desafio metodológico e político crucial para compreender infraestruturas contemporâneas. Este artigo contribuiu para este esforço ao oferecer um framework analítico para examinar as infraestruturas digitais como atores-rede, revelando as associações heterogêneas, processos de tradução e formas de mediação através dos quais estas infraestruturas emergem e transformam o mundo social.

Em última análise, a análise das plataformas de IA como atores-rede nos convida a repensar fundamentalmente nossas relações com tecnologias digitais, reconhecendo como estamos sempre já emaranhados em redes sociotécnicas complexas que moldam nossas possibilidades de ação, conhecimento e existência. Como argumenta Latour (2005, p. 217), "o social não é um lugar, uma coisa, um domínio, um tipo de matéria, mas um movimento provisório de novas associações". Compreender e participar criticamente neste movimento é um desafio crucial para cidadãos, pesquisadores e formuladores de políticas em sociedades cada vez mais mediadas por infraestruturas digitais.

Referências Bibliográficas

AJUNWA, I. 2019. The Paradox of Automation as Anti-Bias Intervention. Cardozo Law Review, v. 41, p. 1671-1742.

ANANNY, M.; CRAWFORD, K. 2018. Seeing without knowing: Limitations of the transparency ideal and its application to algorithmic accountability. New Media & Society, v. 20, n. 3, p. 973-989.

BAROCAS, S.; SELBST, A. D. 2016. Big data's disparate impact. California Law Review, v. 104, p. 671-732.

BENJAMIN, R. 2019. Race After Technology: Abolitionist Tools for the New Jim Code. Polity Press, Cambridge.

BENNETT, J. 2010. Vibrant Matter: A Political Ecology of Things. Duke University Press, Durham.

BENKLER, Y. 2006. The Wealth of Networks: How Social Production Transforms Markets and Freedom. Yale University Press, New Haven.

BOWKER, G. C.; STAR, S. L. 1999. Sorting Things Out: Classification and Its Consequences. MIT Press, Cambridge.

BOWKER, G. C.; BAKER, K.; MILLERAND, F.; RIBES, D. 2010. Toward Information Infrastructure Studies: Ways of Knowing in a Networked Environment. In: HUNSINGER, J.; KLASTRUP, L.; ALLEN, M. (Eds.). International Handbook of Internet Research. Springer, Dordrecht, p. 97-117.

BUCHER, T. 2018. If...Then: Algorithmic Power and Politics. Oxford University Press, Oxford.

CALLON, M. 1984. Some elements of a sociology of translation: domestication of the scallops and the fishermen of St Brieuc Bay. The Sociological Review, v. 32, n. 1, p. 196-233.

CALLON, M. 1986. The Sociology of an Actor-Network: The Case of the Electric Vehicle. In: CALLON, M.; LAW, J.; RIP, A. (Eds.). Mapping the Dynamics of Science and Technology. Palgrave Macmillan, London, p. 19-34.

CHENEY-LIPPOLD, J. 2017. We Are Data: Algorithms and the Making of Our Digital Selves. NYU Press, New York.

CHUN, W. H. K. 2011. Programmed Visions: Software and Memory. MIT Press, Cambridge.

COECKELBERGH, M. 2020. Artificial Intelligence, Responsibility Attribution, and a Relational Justification of Explainability. Science and Engineering Ethics, v. 26, p. 2051-2068.

COSTANZA-CHOCK, S. 2020. Design Justice: Community-Led Practices to Build the Worlds We Need. MIT Press, Cambridge.

CRAWFORD, K.; JOLER, V. 2018. Anatomy of an AI System: The Amazon Echo as an anatomical map of human labor, data and planetary resources. AI Now Institute and Share Lab.

DENARDIS, L. 2012. Hidden levers of Internet control: An infrastructure-based theory of Internet governance. Information, Communication & Society, v. 15, n. 5, p. 720-738.

DOURISH, P. 2017. The Stuff of Bits: An Essay on the Materialities of Information. MIT Press, Cambridge.

EUBANKS, V. 2018. Automating Inequality: How High-Tech Tools Profile, Police, and Punish the Poor. St. Martin's Press, New York.

FLORIDI, L.; SANDERS, J. W. 2004. On the Morality of Artificial Agents. Minds and Machines, v. 14, n. 3, p. 349-379.

FOURCADE, M.; HEALY, K. 2016. Seeing like a market. Socio-Economic Review, v. 15, n. 1, p. 9-29.

GALLOWAY, A. R. 2012. The Interface Effect. Polity Press, Cambridge.

GILLESPIE, T. 2010. The politics of 'platforms'. New Media & Society, v. 12, n. 3, p. 347-364.

GILLESPIE, T. 2014. The Relevance of Algorithms. In: GILLESPIE, T.; BOCZKOWSKI, P. J.; FOOT, K. A. (Eds.). Media Technologies: Essays on Communication, Materiality, and Society. MIT Press, Cambridge, p. 167-194.

GITELMAN, L. (Ed.) 2013. 'Raw Data' Is an Oxymoron. MIT Press, Cambridge.

GRAY, M. L.; SURI, S. 2019. Ghost Work: How to Stop Silicon Valley from Building a New Global Underclass. Houghton Mifflin Harcourt, Boston.

HARAWAY, D. 1988. Situated Knowledges: The Science Question in Feminism and the Privilege of Partial Perspective. Feminist Studies, v. 14, n. 3, p. 575-599.

HELMOND, A. 2015. The Platformization of the Web: Making Web Data Platform Ready. Social Media + Society, v. 1, n. 2, p. 1-11.

HOGAN, M.; VONDERAU, A. 2019. The Nature of Data Centers. Culture Machine, v. 18, p. 1-14.

HU, T.-H. 2015. A Prehistory of the Cloud. MIT Press, Cambridge.

INTRONA, L. D.; NISSENBAUM, H. 2000. Shaping the Web: Why the Politics of Search Engines Matters. The Information Society, v. 16, n. 3, p. 169-185.

IRANI, L. 2015. The cultural work of microwork. New Media & Society, v. 17, n. 5, p. 720-739.

JASANOFF, S. 2016. The Ethics of Invention: Technology and the Human Future. W.W. Norton & Company, New York.

KELTY, C. M. 2008. Two Bits: The Cultural Significance of Free Software. Duke University Press, Durham.

KITCHIN, R. 2014. The Data Revolution: Big Data, Open Data, Data Infrastructures and Their Consequences. SAGE Publications, London.

KITCHIN, R. 2017. Thinking critically about and researching algorithms. Information, Communication & Society, v. 20, n. 1, p. 14-29.

LATOUR, B. 1996. On actor-network theory: A few clarifications. Soziale Welt, v. 47, n. 4, p. 369-381.

LATOUR, B. 2005. Reassembling the Social: An Introduction to Actor-Network-Theory. Oxford University Press, Oxford.

LAW, J. 1992. Notes on the theory of the actor-network: Ordering, strategy, and heterogeneity. Systems Practice, v. 5, n. 4, p. 379-393.

MOL, A. 1999. Ontological politics: A word and some questions. The Sociological Review, v. 47, n. S1, p. 74-89.

MOROZOV, E. 2013. To Save Everything, Click Here: The Folly of Technological Solutionism. PublicAffairs, New York.

NISSENBAUM, H. 1996. Accountability in a computerized society. Science and Engineering Ethics, v. 2, n. 1, p. 25-42.

NOBLE, S. U. 2018. Algorithms of Oppression: How Search Engines Reinforce Racism. NYU Press, New York.

PARKS, L. 2015. 'Stuff You Can Kick': Toward a Theory of Media Infrastructures. In: SVENSSON, P.; GOLDBERG, D. T. (Eds.). Between Humanities and the Digital. MIT Press, Cambridge, p. 355-373.

PASQUALE, F. 2015. The Black Box Society: The Secret Algorithms That Control Money and Information. Harvard University Press, Cambridge.

PLANTIN, J.-C.; LAGOZE, C.; EDWARDS, P. N.; SANDVIG, C. 2018. Infrastructure studies meet platform studies in the age of Google and Facebook. New Media & Society, v. 20, n. 1, p. 293-310.

SEAVER, N. 2017. Algorithms as culture: Some tactics for the ethnography of algorithmic systems. Big Data & Society, v. 4, n. 2, p. 1-12.

SEAVER, N. 2019. Knowing Algorithms. In: VERTESI, J.; RIBES, D. (Eds.). digitalSTS: A Field Guide for Science & Technology Studies. Princeton University Press, Princeton, p. 412-422.

STAR, S. L. 1999. The Ethnography of Infrastructure. American Behavioral Scientist, v. 43, n. 3, p. 377-391.

STAR, S. L.; RUHLEDER, K. 1996. Steps Toward an Ecology of Infrastructure: Design and Access for Large Information Spaces. Information Systems Research, v. 7, n. 1, p. 111-134.

SUCHMAN, L. 2007. Human-Machine Reconfigurations: Plans and Situated Actions. Cambridge University Press, Cambridge.

TERRANOVA, T. 2000. Free Labor: Producing Culture for the Digital Economy. Social Text, v. 18, n. 2, p. 33-58.

VAN DIJCK, J. 2013. The Culture of Connectivity: A Critical History of Social Media. Oxford University Press, Oxford.

VERBEEK, P.-P. 2011. Moralizing Technology: Understanding and Designing the Morality of Things. University of Chicago Press, Chicago.

WILLIAMSON, B. 2017. Big Data in Education: The Digital Future of Learning, Policy and Practice. SAGE Publications, London.

WINNER, L. 1980. Do Artifacts Have Politics?. Daedalus, v. 109, n. 1, p. 121-136.

ZUBOFF, S. 2019. The Age of Surveillance Capitalism: The Fight for a Human Future at the New Frontier of Power. PublicAffairs, New York.

Sobre o Autor

Ivan Prizon

Prof. Me. Ivan Prizon

Economista pela Universidade Estadual de Maringá (UEM), Mestre em Desenvolvimento Econômico pela Universidade Federal de Santa Maria (UFSM), doutorando em Política de Inovação pela Universidade Federal do Paraná (UFPR). Ex-pesquisador no Observatório da Indústria na Federação da Indústria do Estado do Paraná, ex-Economista na Secretaria da Fazenda, na Receita Estadual do Paraná. Atualmente é Pesquisador Chefe e Diretor de Novos Negócios na Rede Integrare de Pesquisa e Análise e Estrategista de Marca e Negócios na Agência Integrare. Desenvolve projetos paralelos de Inteligência Artificial, Metodologia Científica e Inovação, entre eles o Instituto de Criação e Inovação (ICI) que fomenta e desenvolve trabalhos na área de Inovação, IA e Design Thinking.

Artigos Relacionados