Blog

O dano dos defaults – TechCrunch


A Apple saiu um novo par de AirPods esta semana. O design parece exatamente como o antigo par de AirPods. O que significa que eu nunca vou usá-los, porque os fones de ouvido bulbosos da Apple não cabem nos meus ouvidos. Pense peg quadrado, buraco redondo.

A única maneira que eu poderia balançar AirPods seria andar com as mãos presas aos lados da minha cabeça para impedi-los de cair. O que pode fazer um bom corte em uma maçã brilhante anúncio para o gizmo – sugerindo um sentimento de proximidade com a música, de tal forma que você não pode ajudar, mas copa; uma metáfora visual sugestiva para a intimidade aural A Apple certamente quer que sua tecnologia se comunique.

Mas a realidade de usar fones de ouvido que não se encaixam não é nada disso. É só uma merda Eles caem ao menor movimento para que você se sente e nunca vire a cabeça ou, sim, segure-os com as mãos. Oh hai, mãos-não-tão-livres-vagens!

O ponto óbvio aqui é que um tamanho não serve para todos – de qualquer forma, muito da Apple, Jony Ive e sua equipe de design, disseram que criaram um fone de ouvido universal que se encaixa confortavelmente em todos os ouvidos e simplesmente funciona. Desculpe, não!

Uma proporção de usuários do iOS – talvez outras mulheres delicadas como eu, ou mesmo homens com orifícios auditivos com menos capacidade – estão simplesmente sendo removidas da equação de vendas da Apple, quando se trata de fones de ouvido. A Apple está fingindo que não existem.

Claro que podemos apenas comprar outra marca de fones de ouvido de tamanho mais adequado. O in-ear, tipo de cancelamento de ruído são a minha preferência. A Apple não faz “InPods”. Mas isso não é um grande negócio. Bem, ainda não.

É verdade que a gigante de tecnologia do consumidor também excluiu o fone de ouvido do iPhone. Assim, depreciar meu par existente de fones de ouvido com fio (se eu atualizar para um iPhone de 3,5 mm sem jack). Mas eu poderia apenas desembolsar para fones de ouvido intra-auriculares sem fio Bluetooth que cabem meus ouvidos tipo shell e continuar normalmente.

Os fones de ouvido universais já existem há anos, é claro. Um conceito de design delicioso. Você recebe uma seleção de diferentes tamanhos de tampas de borracha enviadas com o produto e escolhe o tamanho que melhor se encaixa.

Infelizmente, a Apple não está no negócio dos “InPods”. Possivelmente por razões estéticas. O mais provável é que – e há mais do que uma pequena ironia aqui – um design in-ear não seria naturalmente espaçoso o suficiente para acomodar todas as coisas que Siri precisa, sabe, falsa inteligência.

O que significa que pessoas como eu, com orelhas pequenas, estão sendo ignoradas em favor do assistente de voz da Apple. Então, isso é AI: 1, humano de tamanho não padronizado: 0. O que também, sem surpresa, parece uma merda.

Eu digo 'ainda' porque se a computação de voz se tornar o próximo paradigma de interação, como alguns acreditam – dado como a conectividade da Internet está preparada para tudo (e grudar telas em todos os lugares seria um pesadelo visual e de usabilidade; um pesadelo de privacidade…) – então a minoria de humanos com orelhas pequenas estará em desvantagem em comparação àqueles que podem simplesmente colocar seus fones de ouvidos inteligentes e cheios de sensores e continuar dizendo aos seus ambientes habilitados para Internet para fazerem seus pedidos.

Será que os pais das futuras gerações de bebês projetados selecionarão os earholes com capacidade adequada para que seus filhos possam inserir uma IA? Vamos esperar que não.

Nós também não estamos na singularidade da computação de voz. Fora das bolhas usuais de tecnologia, permanece um truque novo. A Amazon tem despertado algum interesse com alto-falantes inteligentes que abrigam sua própria voz, o AI Alexa (uma marca que, aliás, causou uma dor de cabeça verbal para os humanos chamados Alexa). Embora seus alto-falantes inteligentes Echo pareçam, na maioria das vezes, usados ​​como verificadores climáticos caros e temporizadores de ovos. Ou então, para tocar música – uma função que um alto-falante padrão ou smartphone terá prazer em realizar.

Certamente uma voz de inteligência artificial não é algo que você precisa com você 24/7 ainda. Produzir em uma tela sensível ao toque continua a ser a maneira padrão de explorar o poder e a conveniência da computação móvel para a maioria dos consumidores nos mercados desenvolvidos.

Mas o problema é que ainda é ignorado. Ser informado – mesmo indiretamente – por uma das empresas de tecnologia de consumo mais ricas do mundo, que não acredita que seus ouvidos existam.

Ou, bem, isso pesa os cálculos de vendas e decidiu que é bom deixar uma minoria pequena no chão da sala de corte. Então, é “orelha atender AirPod”. Não “AirPod meet ear” então.

Mas o problema subjacente é muito maior do que os fones de ouvido grandes da Apple (no meu caso). Seu último conjunto brilhante de AirPods é apenas um lembrete mal ajustado de quantos padrões de tecnologia simplesmente não se encaixam no mundo como reivindicado.

Porque se a Apple, rica em dinheiro, está bem em promover um default universal (isso não é), pense em todas as empresas de tecnologia com menos recursos que buscam escala para outras soluções de tamanho único e mal adaptadas. E todos os problemas decorrentes das tentativas de transformar a tecnologia mal mapeada na sociedade em geral.

Quando se trata de kit físico de tamanho incorreto, tive problemas semelhantes com o equipamento de computação de escritório padrão e com os móveis. Produtos que parecem – surpresa, surpresa! – ter sido projetado por padrão com um cara de cinta de 6 pés em mente. Teclados, por tanto tempo, acabam presenteando o usuário menor RSI. Cadeiras de escritório que oferecem dor nas costas crônica como um serviço. Ratos robustos que rapidamente quebram a mão com dor. (A Apple também é uma ofensora histórica, eu estou com medo.)

As correções para essas falhas de design ergonômico são simplesmente não usar o kit. Para encontrar uma alternativa melhor (muitas vezes DIY) que se encaixa.

Mas uma correção DIY pode não ser uma opção quando a discrepância é embutida no nível do software – e onde um sistema está sendo aplicado a você, ao invés de você querer aumentar um pouco de tecnologia, como um par de fones de ouvido inteligentes. .

Com o software, falhas embutidas e falhas no design do sistema também podem ser mais difíceis de detectar, porque não é necessariamente óbvio que há um problema. Muitas vezes, a tendência algorítmica não é visível até dano foi feito.

E não há escassez de histórias sobre como os padrões de software configurados para uma mediana tendenciosa acabaram causando danos ao mundo real. (Veja, por exemplo: a análise da ProPublica sobre a ferramenta de recidividismo COMPAS – software que julgou incorretamente que os réus negros tinham mais probabilidade de ofender do que de branco. Portanto, o software ampliava o preconceito racial existente.)

Claro AI torna este problema muito pior.

É por isso que a ênfase deve estar no viés de captura nos conjuntos de dados – antes que haja uma chance de o preconceito ou o preconceito serem “sistematizados” e se incorporem a algoritmos que podem causar danos em grande escala.

Os algoritmos também devem ser explicáveis. E os resultados auditáveis. Transparência como desinfetante; não blackboxes secretos recheados com código incognoscível.

Fazer tudo isso requer um enorme pensamento inicial e esforço no projeto do sistema e uma mudança de atitude ainda maior. Também precisa de atenção massiva e maciça à diversidade. Um campeão em toda a indústria da realidade multifacetada e de vários tamanhos da humanidade – e para garantir que isso se reflita nas opções de dados e design (e, portanto, as equipes fazendo o design e o trabalho de desenvolvimento).

Você poderia dizer que o que é necessário é um reconhecimento que nunca, nunca, é um plug de tamanho único.

De fato, todas as “soluções” algorítmicas são abstrações que comprometem a exatidão e a utilidade. E que esses trade-offs podem se transformar em facas que excluem, negam, prejudicam, eliminam e prejudicam pessoas em grande escala.

Auriculares caros que não ficam no lugar são apenas uma metáfora visual útil.

E enquanto a discussão sobre os riscos e desafios do viés algorítmico aumentou nos últimos anos, conforme as tecnologias de IA proliferaram – com as principais conferências tecnológicas discutindo ativamente como “democratizar a IA” e assar diversidade e ética no design do sistema por meio de um foco de desenvolvimento em princípios como transparência, explicabilidade, responsabilidade e justiça – a indústria ainda nem começou a resolver seu problema de diversidade.

Ele mal moveu a agulha na diversidade. E seus produtos continuam a refletir essa falha fundamental.

Muitos – se não a maioria – dos problemas da indústria de tecnologia podem ser rastreados até o fato de que equipes inadequadamente diversas estão perseguindo escala enquanto não têm a perspectiva de perceber que seu projeto de sistema está reaproveitando o dano humano como uma medida de desempenho de fato. (Embora “falta de perspectiva” seja a interpretação caridosa em certos casos; o vácuo moral pode estar mais próximo do alvo.)

Como o criador da WWW, Sir Tim Berners-Lee, apontou, o design do sistema é agora o design da sociedade. Isso significa que engenheiros, codificadores, tecnólogos de IA estão trabalhando na linha de frente da ética. As escolhas de design que eles fazem têm o potencial de impactar, influenciar e moldar a vida de milhões e até bilhões de pessoas.

E quando você está projetando a sociedade, uma mentalidade mediana e uma perspectiva limitada não podem ser uma base aceitável. É também uma receita para o fracasso do produto.

A atual reação contra a grande tecnologia mostra que as apostas e os danos são muito reais quando tecnologias mal projetadas são despejadas impensadamente nas pessoas.

A vida é confusa e complexa. As pessoas não se encaixam em uma plataforma que simplifica demais e ignora. E se a sua desculpa para aumentar o dano for “nós simplesmente não pensamos nisso”, você fracassou no seu trabalho e deve realmente sair pela porta.

Porque as conseqüências de serem excluídas pelo design de sistema defeituoso também são escaladas e aumentadas à medida que as plataformas proliferam e mais decisões impactantes à vida são automatizadas. O dano está sendo quadrado. Mesmo que o tambor da indústria subjacente não tenha pulado uma batida na sua previsão de que tudo será digitalizado.

O que significa que sistemas de liberdade condicional horrivelmente tendenciosos são apenas a ponta do iceberg ético. Pense em saúde, bem-estar social, aplicação da lei, educação, recrutamento, transporte, construção, ambientes urbanos, agricultura, militares, a lista do que será digitalizado – e de processos manuais ou humanos supervisionados que serão sistematizados e automatizados – continua .

Software – executa o mantra da indústria – está comendo o mundo. Isso significa que os produtos de tecnologia mal projetados irão prejudicar mais e mais pessoas.

Mas a responsabilidade pelo desajustamento sociotécnico não pode ser reduzida apenas como um “dano colateral”.

Assim, enquanto uma equipe de design de 'elite' liderada por um famoso homem branco pode ser capaz de criar um fone de ouvido curvo agradável, tal abordagem não pode e não se traduz automaticamente em AirPods com ajuste perfeito e universal.

É alguém padrão. Certamente não é meu.

Podemos postular que uma equipe de design da Apple mais diversificada poderia ter repensado o projeto do AirPod de modo a não excluir aqueles com orelhas menores. Ou faça um caso para convencer os poderes que estão em Cupertino para adicionar outra escolha de tamanho. Nós podemos, mas especular.

O que está claro é que o futuro do design de tecnologia não pode ser tão teimoso.

Deve ser radicalmente inclusivo e incrivelmente sensível. Humano-centralizado Não está preso a padrões prejudiciais em sua pressa de impor um conjunto limitado de idéias.

Acima de tudo, precisa de um ouvido atento ao mundo.

A indiferença à diferença e um ponto cego para a diversidade não encontrará futuro aqui.



Source link

Artigos relacionados

Deixe uma resposta

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *

Verifique também
Fechar
Botão Voltar ao topo
Fechar