un

guest
1 / ?
back to lessons

Três Fases de Aplicação de Computadores

O Capítulo 5 de Hamming começa com uma retrospectiva: sua série de 30 anos de palestras em eventos de treinamento de clientes da IBM o forçou a entender tendências em vez de apenas fatos. Preparar a mesma palestra repetidamente o obrigou a ficar à frente do campo, não apenas atualizado com ele.

Ele identificou três fases sucessivas em como os computadores eram aplicados:

Fase 1: Limites de hardware (Capítulo 3). A computação inicial era limitada pelo que a máquina podia fazer - a memória era escassa, os ciclos eram caros e a confiabilidade era incerta. As aplicações eram escolhidas para se ajustar ao hardware.

Fase 2: Limites de software (Capítulo 4). À medida que o hardware melhorava, a programação se tornava o gargalo. As aplicações eram limitadas por o que poderia ser codificado de forma eficiente.

Fase 3: Economia e aplicações (Capítulo 5). Nos últimos anos de 1980, o hardware era barato o suficiente e o software poderoso o suficiente que a pergunta se tornou: o que os computadores devem fazer? Economia e capacidade organizacional determinavam quais aplicações seriam construídas.

Essa transição de fase é importante: cada fase exigia habilidades totalmente diferentes dos praticantes. Um engenheiro de hardware brilhante da Fase 1 que nunca atualizou seu modelo mental se tornaria inútil na Fase 3.

Aplicações Mais Antigas

A computação começou com cálculos astronômicos, depois 'processamento de números' em física e engenharia. Raymond Lull (1235-1315), um teólogo espanhol, construiu uma máquina de lógica - a primeira aplicação de computação para raciocínio não numérico. Jonathan Swift satirizou isso em Viagens de Gulliver (a ilha de Laputa). Hamming rastreou essa linha de Lull para manipulação simbólica o que se tornaria: aprendizado de máquina.

A Curva S da Adoção de Tecnologia

Cada grande tecnologia segue uma trajetória característica: adoção inicial lenta, aceleração rápida, saturação. Hamming chamou esse padrão de curva S.

Fase 1 de qualquer tecnologia: demonstração heroica. Um pequeno número de entusiastas demonstra que a tecnologia funciona. O progresso depende da bravura individual e da tolerância à insegurança.

Fase 2: adoção rápida. A tecnologia se torna confiável o suficiente para uso geral. A infraestrutura se desenvolve em torno dela. Os padrões emergem. O fator limitante se shift para organizacional.

Fase 3: saturação. A tecnologia atinge a penetração total do mercado potencial. Melhorias adicionais não geram retornos significativos. Novas curvas S começam para tecnologias sucessoras.

Para computação: Fase 1 = era do ENIAC (1940-1950), Fase 2 = comércio de mainframes (1960-1970), Fase 3 = computação pessoal se aproximando da saturação (1980-1990). Hamming estava escrevendo durante a transição da Fase 2 para a Fase 3 para mainframes, enquanto a computação pessoal ainda estava na Fase 2.

A visão de produto equivalente (primeiro mencionada no Capítulo 2) se aplica diretamente aqui: na Fase 2, a computerização de um processo produz uma tarefa equivalente, não a mesma tarefa. Organizações que tentaram computerizar fluxos de trabalho existentes sem redesenhá-los frequentemente falharam ou subperformaram.

Curva S de Adoção de Tecnologia

Localizando-se na Curva S

A visão de curva S de Hamming tem uma implicação prática: as habilidades e estratégias que têm sucesso na Fase 1 (heroica, experimental, alta tolerância a erros) são diferentes das necessárias na Fase 2 (entrega confiável, conformidade com padrões, integração organizacional) e na Fase 3 (otimização, redução de custos, consolidação de plataforma).

Mencionar uma tecnologia com a qual você trabalha ou segue. Identifique qual fase (demonstração heroica, adoção rápida ou saturação) ela ocupa atualmente. Em seguida, explique: quais habilidades estão sendo recompensadas nessa fase agora e quais habilidades serão recompensadas na próxima fase — e como você se posiciona para a transição?

Quando os Dados Compartilhados Não Funcionam

Hamming contou uma história de sua experiência realizando uma auditoria de alto nível do centro de computadores da Boeing. A gestão da Boeing acreditava que haviam resolvido o design colaborativo: todos os engenheiros escreveriam seu estado de design atual em uma fitadeira compartilhada. Todos leriam desta única fonte de verdade. Os problemas de coordenação desapareceriam.

Não funcionou.

A razão: quando um time realiza um estudo de otimização (variação, por exemplo, do área e perfil da asa para minimizar a tração), eles precisam de um base de referência fixa para medir os cambios contra. Se a fitadeira compartilhada atualizar continuamente com mudanças de outros times, uma melhoria que um time mede pode realmente refletir a mudança de alguém entre suas iterações - não sua própria decisão de design.

A solução que os times adotaram na prática: cada grupo, ao iniciar um estudo de otimização, fez uma cópia instantânea do estado de design atual. Eles usaram essa cópia congelada durante todo o estudo, ignorando atualizações. Só quando estavam satisfeitos com seu novo design, eles gravaram de volta - então, reconciliando com as mudanças de todos os outros.

A conclusão de Hamming: não é possível usar uma base de dados em mutação contínua para um estudo de otimização. A otimização requer um espaço de estado estável; um estado compartilhado mutável introduz correlações fantasma.

Bases de Dados

Os computadores foram promovidos como a solução para os problemas de dados organizacionais. Hamming era cético. Ele citou os sistemas de reservas aéreas como realmente bem-sucedidos (o problema de coordenação é real, o modelo de dados é simples e a consistência é estritamente necessária). Mas os sistemas de informação de gestão que prometiam dizer aos gestores 'o estado atual da empresa em tempo real' entregaram consistentemente menos do que prometiam: os modelos de dados eram muito complexos, a qualidade dos dados era ruim e a interpretação era muito ambígua.

Base de Referência Estável vs Dados em Tempo Real

A falha do Boeing ilustra um princípio geral que Hamming implícito: a otimização requer uma função de custo estável avaliada em um espaço de estado fixo. Um estado compartilhado mutável viola o requisito de espaço de estado fixo.

Este princípio se estende além do software. Em qualquer processo de otimização - estratégia empresarial, design experimental, treinamento de modelo - isolando a variável sob estudo requer controlar as demais.

Descreva uma situação em seu campo ou trabalho onde um conjunto de dados compartilhado e atualizado continuamente causou a mesma confusão que a Boeing experimentou: uma melhoria aparente que na verdade foi causada por uma mudança de alguém else. Qual princípio isso ilustra e qual é o procedimento operacional correto para a otimização sob dados compartilhados?

Reconhecimento de Padrões como a Próxima Fronteira

Até 1993, Hamming identificou o reconhecimento de padrões como o maior próximo desafio para a computação. Ele distinguiu dois tipos:

Reconhecimento de padrões clássico: comparando uma entrada a um template armazenado. Detecção de faces, reconhecimento óptico de caracteres (OCR), verificação de assinatura. Esses admitem soluções algorítmicas uma vez que o conjunto de template seja definido.

Reconhecimento genuíno: um filho reconhece 'cadeira' em milhares de formas diferentes, materiais, tamanhos e orientações, nunca tendo visto a maioria deles antes. Nenhuma template explícita cobre a generalização. Hamming tratou isso como um problema aberto - a lacuna entre a classificação de padrões clássicos e o reconhecimento genuíno não era uma questão de mais dados ou hardware mais rápido. Era necessário fundações diferentes.

Ele enquadrou isso em termos do fracasso dos sistemas especialistas: os pesquisadores pensavam que poderiam extrair regras de decisão de especialistas e codificá-las em programas. Sistemas especialistas funcionavam em domínios estreitos, mas falhavam em complexos, em parte porque os especialistas humanos usam padrões que não podem articular. A biblioteca de padrões inconsciente construída ao longo de anos de prática não pode ser extraída por meio de entrevistas.

A previsão de Hamming (1993): o reconhecimento de padrões genuíno requereria abordagens computacionais fundamentalmente diferentes. Ele fez um gesto em direção a redes neurais, mas foi cauteloso - não convencido de que as redes neurais atuais fechariam a lacuna.

Dando a mesma palestra por 30 anos

Hamming descreveu uma prática que lhe rendeu mais retorno do que quase qualquer outra em sua vida profissional: dar a mesma palestra repetidamente.

Ele foi convidado a falar em eventos de treinamento de clientes da IBM em cerca de 1960. Ele escolheu dar uma palestra sobre A História da Computação até o Ano 2000 - um tópico que ele realmente era incerto, o que o forçou a desenvolver realmente opiniões. Ele deu variantes dessa palestra duas ou três vezes por ano por 30 anos.

Os benefícios que ele identificou:

Manter-se atualizado: dar a mesma palestra repetidamente o forçou a atualizá-la regularmente. Ele não poderia dar uma palestra velha sem se envergonhar diante de audiências que seguiam o campo.

Reconhecimento de tendências: o processo de atualização o forçou a procurar tendências, não apenas eventos. O que mudou no ano passado e em que direção? A atualização repetida exigia um modelo do campo, não apenas um catálogo de fatos.

Habilidade em falar em público: a prática reduziu o medo e melhorou a entrega. Ele parou de ter medo de dar palestras; ele se tornou um orador polido através da repetição em vez de talento.

Rede: um tema consistente construiu uma reputação. As pessoas o associaram às tendências da computação. As convites se multiplicaram.

Sua observação: ele poderia ter adquirido essa prática por acaso - mas ele fazia a sorte ativamente procurando oportunidades de falar, então desenvolvendo a disciplina para usá-las sistematicamente.

Prática deliberada e capital de carreira

A fala de 30 anos de Hamming foi uma instância de prática deliberada aplicada ao trabalho intelectual: um exercício sistemático, repetido, com ciclos de feedback que construíam habilidades acumulativas no tempo.

A estrutura: (1) comprometa-se com um tema na borda de seu conhecimento; (2) dê uma palestra, o que faz com que você conheça; (3) receba feedback (resposta do público, perguntas que não pôde responder); (4) atualize a palestra; (5) repita.

Cada ciclo contribui para um modelo. Cada atualização força o contato com novos dados. Cada pergunta do público revela uma lacuna. Em 30 anos, o modelo se torna profundo.

Desenhe um 'Hamming talk' para seu próprio campo: uma palestra que você poderia dar repetidamente nos próximos 10 anos, atualizando-a a cada vez, que faria com que você ficasse atualizado, reconhecesse tendências e desenvolvesse habilidades de fala em público. Nomeie o tema, explique por que é o nível de dificuldade correto (não é fácil demais, nem difícil demais para manter atualizado) e descreva o que a versão do primeiro ano da palestra cobriria em comparação com o que você espera que a versão de 5 anos cubra.

Connecting Hardware, Software & Applications

Chapters 3, 4, & 5 form a progression. Hamming built the argument across three lectures:

Capítulo 3 (Hardware): limites físicos impedem o que as máquinas podem fazer. Três leis — tamanho molecular, velocidade da luz, calor — definem tetos que nenhum engenharia pode remover.

Capítulo 4 (Software): limites humanos impedem o que os programas podem fazer. Linguagens projetadas para elegância lógica falham; linguagens projetadas para psicologia humana sobrevivem. Camadas de abstração se acumulam, cada uma resolvendo os problemas da camada anterior.

Capítulo 5 (Aplicações): limites econômicos e organizacionais impedem o que é construído. A tecnologia segue curvas S. O estado mutável compartilhado quebra a otimização. A reconhecimento de padrões continua sendo um desafio aberto.

O tema unificador: os limites mudam. O praticante que atualiza seu modelo sobre o que é a restrição atrelada atualmente — e posiciona suas habilidades de acordo — supera consistentemente aquele que otimiza para as restrições de ontem.

A lição de carreira de Hamming do bate-papo de 30 anos: apresentar o mesmo bate-papo repetidamente o forçou a entender tendências. O mecanismo não era o bate-papo em si, mas o ciclo de preparação: o que mudou, em que direção e por quê? A preparação repetida construiu um modelo que a simples leitura não poderia.

Qual é a Restrição Atrelada Atual?

No modelo de Hamming, cada época tem uma restrição atrelada: a limitação que, se removida, mais aceleraria o progresso. Na década de 1940: velocidade de hardware. Na década de 1970: capacidade de software. Na década de 1990: capacidade econômica e organizacional.

Nomeie a restrição atrelada em seu campo hoje. Não um desafio genérico — uma limitação específica que, se removida, mais rapidamente avançaria a habilidade do campo para atingir seus objetivos. Então: o que seria necessário para removê-la e qual das três abordagens de Hamming (hardware, software, capacidade organizacional/econômica) o remoção requer?