Interessante

Por que o uso do e-mail se desenvolveu em conjunto com a Internet, em vez de outras tecnologias?

Por que o uso do e-mail se desenvolveu em conjunto com a Internet, em vez de outras tecnologias?


We are searching data for your request:

Forums and discussions:
Manuals and reference books:
Data from registers:
Wait the end of the search in all databases.
Upon completion, a link will appear to access the found materials.

Durante a década de 1980, imaginei uma versão (primitiva) de e-mail que sairia de máquinas de telex. Ou seja, uma pessoa se sentaria em um teclado, criaria um documento, armazenaria em um cartucho, colocaria o cartucho em, digamos, uma máquina de telex, enviaria para outro terminal via modem e o receptor poderia imprimir em seu telex, ou então baixe na tela dele e leia na tela. Um resultado semelhante pode ter sido obtido usando aparelhos de fax. Em ambos os casos, a "tela" representaria um segundo meio de entrega, em oposição a "apenas o fax" ou "apenas o telex".

Na verdade, o e-mail se tornou comum em meados da década de 1990, quando a Internet se tornou comum. O que há na Internet que a tornou o motor do e-mail? Dito de outra forma, por que demorou tanto para que o e-mail se tornasse comum na Internet quando poderia ter sido disponibilizado por telex ou aparelhos de fax talvez 10-15 anos antes?


Os e-mails foram popularizados na internet porque é o meio que melhor o habilitou.

O conceito de e-mails, na verdade, é anterior à internet. Ele se originou nas redes de computadores da década de 1960, onde os usuários podiam fazer login em um servidor central a partir de vários terminais remotos - não muito diferente de como os usuários acessam a Internet hoje. Os e-mails como os conhecemos se desenvolveram como um meio de passar mensagens entre usuários sob essa arquitetura.

Isso significava que as tecnologias de fax / telex não eram adequadas para a entrega de e-mails. Tanto o fax quanto o telex são sistemas de comunicação física ponto a ponto: o fax depende da rede telefônica, enquanto o telex tinha sua própria rede telegráfica, mas os princípios são semelhantes. Quando você envia um fax, você tem como alvo uma linha física por meio de um número. A máquina nessa linha física específica então o recebe.

Em contraste, o sistema de e-mail encontrou um habitat natural na Internet emergente. A beleza da internet é que ela separou a linha física da linha de dados. Como aquelas mensagens internas em suas redes predecessoras, um e-mail enviado a você pela internet pode ser acessado de qualquer conexão de internet. A Internet não se importa como você se conecta a ela, seja por linha telefônica, cabo ou satélite. Contanto que você tenha as credenciais corretas, você pode acessar as informações.

Portanto, a resposta é: os e-mails passaram a ser usados ​​com frequência com a Internet porque é a primeira rede pública global de computadores. As tecnologias de fax / telex podem ter sido difundidas anos antes, mas eram inteiramente inadequado para lidar com e-mail como nós sabemos.


Sua premissa básica está incorreta. O e-mail não se desenvolveu em tandem com a Internet; a Internet simplesmente o tornou disponível para as massas.

O uso de "correio eletrônico", na verdade, é anterior à Internet por uma margem considerável. O correio eletrônico foi usado na ARPANET já na década de 70. Os primeiros padrões foram propostos já em 1973 (RFC 561). Ao longo dos anos 80 e além, o e-mail era largamente usado por pessoas que discam para sistemas de boletins eletrônicos (BBSes) e outras redes armazenar e encaminhar usando linhas telefônicas e conexões telnet. O e-mail enviado no início da década de 1970 era bastante semelhante a uma mensagem de texto básica enviada pela Internet hoje, mas a adoção do e-mail simplesmente cresce junto com o uso das comunicações eletrônicas em geral.


Na década de 1980, a maioria das pessoas não tinha computadores, exceto a classe média alta com formação universitária e, mesmo então, eram principalmente os trabalhadores do conhecimento, os jovens e os aficionados por gadgets que os possuíam. Ninguém tinha máquinas de telex. Os aparelhos de fax só eram encontrados em escritórios e pode haver um aparelho de fax para cinquenta pessoas. Trabalhei em uma empresa de arquitetura, o tipo de lugar onde um aparelho de fax era crítico, e eles tinham uma máquina e mais de 100 funcionários.

Na década de 1980, o principal método de comunicação por computador era por meio de quadros de avisos, chamados de "BBSs" (sistema de quadro de avisos). Eles tinham "e-mail" no sentido de que você poderia deixar mensagens para outras pessoas se elas se juntassem ao mesmo BBS, o que era gratuito e fácil de fazer. Assim, na década de 1980, havia e-mail prontamente disponível para qualquer pessoa com uma placa de modem em seu computador, o que era bastante comum. Todos os computadores que tínhamos crescendo tinham placas de modem.

Observe que o modem usa a linha telefônica quando está em uso; portanto, se alguém ligou para a casa enquanto você estava no BBS, recebeu um sinal de ocupado. Além disso, se a mãe pegar o telefone e ouvir o ruído do modem, gritarão para você: "SAIA DO COMPUTADOR!"

A principal vantagem da Internet era permitir que os computadores se conectassem por meio de uma segunda linha e a universalidade dos participantes. Na década de 1980, você tinha apenas alguns geeks usando BBSs (embora tecnicamente qualquer um pudesse fazer isso). A web, especialmente a AOL, induziu muitas pessoas e empresas "médias" a aderir à internet. Essa massa de pessoas tornou o e-mail muito mais viável.

AOL, aliás, foi uma espécie de transição entre os anos 80 e a internet completa. A AOL era como uma super-BBS com milhões de usuários, então era fácil enviar mensagens para um grande número de pessoas na AOL discando. É claro que, depois que a Internet se tornou amplamente disponível, a discagem para a AOL tornou-se redundante.


Como é que uma tecnologia domina?

Existem muitas maneiras pelas quais uma tecnologia domina.

  • Ser "melhor" do que abordagens concorrentes.
    Considere uma casa. Quando havia apenas a opção de dormir em uma árvore, no chão ou em uma caverna, uma casa primitiva oferecia muitas vantagens. Hoje, uma grande proporção da população vive em casas, mas outras tecnologias são consideradas "melhores" em muitos casos: unidades, apartamentos e apartamentos em arranha-céus.
    Considere espadas de bronze. As espadas se desenvolveram essencialmente a partir de punhais de bronze e, antes disso, de facas de pedra. Em comparação, o bronze é menos frágil do que a pedra, como a obsidiana ou o sílex, portanto, uma adaga de bronze tem uma vantagem (portanto, não diga nada sobre o prestígio associado). Uma espada de bronze fornece mais "poder" de corte do que uma adaga, e permite que alguém alcance um oponente armado com uma adaga, então a espada tem uma vantagem. Mas um não substitui o outro - ambos têm seus usos (isto é, dominam) em circunstâncias particulares. Mas então as armas de ferro e mais tarde de aço dominaram o bronze. O bronze pode produzir um muito borda afiada, mas em comparação com o ferro e o aço, o bronze é frágil. O ferro era macio e logo o aço passou a dominar - não tão afiado quanto o bronze, mas muito menos frágil; mais afiado e mais duro do que o ferro.

  • Sendo o primeiro.
    Ser o primeiro pode dar a uma tecnologia uma grande vantagem. Os trens podem ser considerados um exemplo disso, se você aceitar uma definição como "o primeiro transporte de massa de longa distância". As pessoas podiam viajar e viajavam por continentes inteiros a pé, a cavalo, de carroça ou de carruagem. Mas o advento do trem possibilitou viagens em massa relativamente rápidas a preços comparativamente baratos. Se você estivesse perto de uma estação ferroviária, teria acesso rápido ao resto do mundo. Demorou dois séculos para que tecnologias concorrentes, como automóveis e aeronaves, fossem inventadas e, em seguida, preenchessem a lacuna.

  • Por meio de marketing, acidente ...
    Nem toda tecnologia "superior" domina. A água é mais turva aqui - o VHS dominou o Betamax por meio de tecnologia superior, acidentes de decisões corporativas teimosas ou marketing?

No caso de e-mail, era uma tecnologia adequada para a Internet nascente: foi projetada especificamente para esse propósito (consulte RFC821 e RFC822) e atendeu a uma necessidade. Antes dos computadores estarem permanentemente conectados como estão hoje, o e-mail podia ser enviado em saltos de uma máquina para a outra quando eles "discavam" (geralmente em uma programação). À medida que a conectividade cresceu, o e-mail ganhou o seu próprio.

A precursora da Internet, a ARPANET, foi administrada pela ARPA. A ARPA determinou como sua rede operava de uma forma bastante semelhante à da engenharia. Um grupo de trabalho seria formado para discutir e decidir sobre o que eles achavam ser a melhor abordagem para um problema. O grupo de trabalho (WG) emitiria então um RFC, que, a menos que fosse modificado, se tornaria a abordagem padrão. O mesmo processo continua (veja Wikipedia e A Internet).

Portanto, na Internet, não existem tecnologias concorrentes diretamente. Em certo sentido, o e-mail é o primeiro e o melhor no que faz.

A grande vantagem do e-mail sobre o telex ou fax é que o e-mail é endereçado "logicamente" a uma pessoa, onde quer que ela esteja fisicamente, e é (supostamente) privado para ela. Enquanto as mensagens de telex e fax são entregues em um local físico e não são intrinsecamente privadas.


Eu estava usando e-mail em alguns sistemas diferentes muito antes de ter uma conexão com a Internet.

O uso de e-mail em escritórios depende de ter uma rede e da maioria das pessoas ter um computador em suas mesas, isso não aconteceu até a década de 1990 em grande medida.

Conectando computadores de residências em sistemas de e-mail e conectando redes de maneira barata dependendo de modems, foi só no final dos anos 1980 que os modems passaram a ter preços razoáveis.

No Reino Unido, as universidades estavam todas conectadas a uma rede X25 separada da Internet, mas com e-mail passando por ela. Havia alguns gateways que permitiam o envio de e-mails para pessoas em outras redes.

As empresas assinavam serviços que forneciam servidores em todo o mundo que seus vendedores podiam usar para enviar e-mails para a matriz com chamadas locais - esses serviços não estavam conectados à Internet ou entre si por um longo tempo.

Por volta de 1995, pude organizar a rota de PA para Church (Cambridge UK) por e-mail, nenhuma das pessoas para quem enviei um e-mail tinha acesso à Internet, tudo foi feito usando diferentes gateways entre os sistemas de e-mail. Em 6 meses, o preço da conexão com a internet caiu tanto em Cambridge que as empresas começaram a conectar suas lans à internet e todo o meu e-mail podia ser feito pela internet.

Acho que foi apenas porque os tempos das mudanças que permitiram o uso generalizado de e-mail aconteceram quase ao mesmo tempo em que o uso generalizado da Internet se tornou possível.

(Tudo isso foi antes que os navegadores da web pudessem exibir imagens!)


A web antes da web: uma retrospectiva do Gopher

Benj Edwards

Antes do rápido crescimento da World Wide Web na década de 1990, um protocolo chamado Gopher rapidamente tornou a Internet fácil de usar, combinando os recursos online do mundo. Veja aqui o que o tornou especial e por que foi rapidamente eclipsado pela web.


Internet 3.0 e o início da história (tecnológica)

Francis Fukuyama & # 8217s O Fim da História e o Último Homem é, particularmente em relação à sua presciência, um dos livros mais incompreendidos de todos os tempos. Aris Roussinos explicou na UnHerd:

Agora que a história voltou com a vingança dos há muito rejeitados, poucas análises do nosso momento presente são completas sem uma zombaria ritual das suposições aparentemente ingênuas de Fukuyama. Os também rans da década de 1990, a tese The Clash of Civilizations de Samuel P. Huntington e The Coming Anarchy de Robert D. Kaplan, que previa um paradigma de desordem crescente, tribalismo e o colapso da autoridade do estado, agora parecem mais prescientes do que a oferta de Fukuyama .

No entanto, quase trinta anos depois, lendo o que Fukuyama realmente escreveu em oposição ao précis desdenhoso de suas idéias, vemos que ele estava certo o tempo todo. Onde Huntington e Kaplan previram a ameaça à ordem liberal ocidental vinda de fora de suas fronteiras culturais, Fukuyama discerniu os pontos fracos de dentro, prevendo, com surpreendente precisão, nosso momento atual.

Considere este parágrafo do livro:

A experiência sugere que se os homens não podem lutar em nome de uma causa justa porque essa causa justa foi vitoriosa na geração anterior, então eles lutarão contra a causa justa. Eles lutarão por lutar. Eles lutarão, em outras palavras, por causa de um certo tédio: pois eles não podem se imaginar vivendo em um mundo sem luta. E se a maior parte do mundo em que vivem é caracterizada por uma democracia liberal pacífica e próspera, então eles lutarão contra essa paz e prosperidade, e contra a democracia.

Era difícil não pensar nesse parágrafo, pois cenas surgiram da invasão da semana passada & # 8217s do Capitólio dos EUA em uma tentativa de derrubar uma eleição democrática, em particular aqueles membros da multidão LARP em uma operação militar de forças especiais, e nos dias seguintes quando ficou claro quantos membros da turba eram, de outra forma, membros abastados da sociedade. A crença de que o presidente Trump ganhou a eleição era uma motivação suficiente para atacar o Capitólio, ou, por baixo de tudo, havia algo mais?

Ganhe McNamee por meio do Getty Images

Não vou fingir que sei as respostas a essa pergunta - este é um blog sobre tecnologia e estratégia, não filosofia e história. Os eventos que se seguiram na quarta-feira, porém, trazem à mente o aviso de Fukuyama & # 8217s de que a história pode ser reiniciada por aqueles insatisfeitos com seu fim.

O fim do começo

Há um ano, escrevi The End of the Beginning, que postulava que a história da tecnologia da informação não era, como popularmente se acreditava, uma de épocas alternadas interrompidas por novos paradigmas, mas sim uma mudança contínua ao longo de dois eixos paralelos:

O lugar que calculamos mudou de uma localização central para qualquer lugar no tempo em que calculamos mudou de processos em lote para computação contínua. A implicação de ver a mudança da computação de mainframe para a computação pessoal em uma rede e as conexões móveis para a nuvem, como manifestações de uma única tendência, era tão contra-intuitiva:

O que é notável é que o ambiente atual parece ser o ponto final lógico de todas essas mudanças: do processamento em lote à computação contínua, de um terminal em uma sala diferente a um telefone no bolso, de uma unidade de fita a data centers, todos sobre o globo. Nessa visão, a era do computador pessoal / servidor local era simplesmente um degrau entre as duas extremidades de um intervalo claramente definido.

Outra maneira de pensar sobre o estado atual das coisas é que ele é o ponto final econômico inevitável das bases tecnológicas da Internet.

Internet 1.0: Tecnologia

A grande maioria das tecnologias que sustentam a Internet foram de fato desenvolvidas décadas atrás. TCP / IP, por exemplo, que sustenta a World Wide Web, e-mail e toda uma série de tecnologias familiares, foi apresentado pela primeira vez em um artigo em 1974 DNS, que traduz nomes de domínio em endereços IP numéricos, foi introduzido em 1985 HTTP, a camada de aplicativo para a Web foi introduzida em 1991. O ano em que essas tecnologias surgiram da perspectiva do usuário final, entretanto, foi 1993 com a introdução do Mosaic, um navegador gráfico desenvolvido por Marc Andreessen na Universidade de Illinois.

Nos anos seguintes, os sites proliferaram rapidamente, assim como os sonhos sobre o que essa nova tecnologia poderia tornar possível. Essa mania levou à bolha das pontocom, que, de maneira crítica, alimentou investimentos maciços em infraestrutura de telecomunicações. Sim, empresas como a Worldcom, NorthPoint e Global Crossing que faziam esses investimentos faliram, mas a base foi lançada para uma conectividade de alta velocidade generalizada.

Internet 2.0: Economia

O Google foi fundado em 1998, no meio da bolha das pontocom, mas foi o IPO da empresa & # 8217s em 2004 que, em minha opinião, marcou o início da Internet 2.0. Esse período da Internet tratava especificamente da economia do atrito zero, ao contrário das suposições que sustentam a Internet 1.0, descobriu-se que a Internet não dispersa o poder econômico, mas, na verdade, o centraliza. Isso é o que sustenta a Teoria da Agregação: quando os serviços competem sem as restrições da geografia ou custos marginais, o domínio é alcançado pelo controle da demanda, não da oferta, e os vencedores ficam com a maioria.

Agregadores como Google e Facebook não foram os únicos vencedores, embora o mercado de smartphones fosse tão grande que poderia sustentar um duopólio de duas plataformas com redes multifacetadas de desenvolvedores, usuários e OEMs (no caso do Android, a Apple era OEM e provedor de plataforma para iOS). Enquanto isso, os provedores de nuvem pública poderiam fornecer servidores back-end para empresas de todos os tipos, com economia de escala que não apenas reduzia os custos e aumentava a flexibilidade, mas também justificava muito mais investimentos em P&D imediatamente implantados por essas empresas.

Os efeitos de rede do iOS e do Android são tão fortes, e a economia de escala da Amazon, Microsoft e Google tão avassaladora, que concluí em O fim do começo:

A implicação dessa visão deve, neste ponto, ser óbvia, mesmo que pareça um pouco herética: pode não haver uma mudança de paradigma significativa no horizonte, nem a mudança geracional associada que a acompanha. E, na medida em que há evoluções, realmente parece que os titulares têm vantagens intransponíveis: os hiperscaladores na nuvem estão melhor posicionados para lidar com a torrente de dados da Internet das Coisas, enquanto novos dispositivos de I / O, como realidade aumentada, wearables ou voz são extensões naturais do telefone.

É aqui, porém, que me lembro de O Fim da História e o Último Homem Fukuyama escreve no capítulo final:

Se for verdade que o processo histórico repousa sobre os pilares gêmeos do desejo racional e do reconhecimento racional, e que a democracia liberal moderna é o sistema político que melhor satisfaz os dois em algum tipo de equilíbrio, então parece que a principal ameaça à democracia seria nossa própria confusão sobre o que realmente está em jogo. Enquanto as sociedades modernas evoluíram para a democracia, o pensamento moderno chegou a um impasse, incapaz de chegar a um consenso sobre o que constitui o homem e sua dignidade específica e, conseqüentemente, incapaz de definir os direitos do homem. Isso abre caminho para uma demanda hiperintensificada pelo reconhecimento da igualdade de direitos, por um lado, e pela re-liberação da megalotimia, por outro. Essa confusão de pensamento pode ocorrer apesar do fato de que a história está sendo conduzida em uma direção coerente pelo desejo racional e reconhecimento racional, e apesar do fato de que a democracia liberal na realidade constitui a melhor solução possível para o problema humano.

Megalotimia é & # 8220o desejo de ser reconhecido como superior às outras pessoas & # 8221, e & # 8220pode se manifestar tanto no tirano que invade e escraviza um povo vizinho para que reconheçam sua autoridade, quanto no pianista que deseja ser reconhecido como o principal intérprete das democracias liberais bem-sucedidas de Beethoven & # 8221 canaliza esse desejo para campos como empreendedorismo ou competição, incluindo política eleitoral.

No caso da Internet, estamos no ponto final lógico do desenvolvimento tecnológico aqui, porém, o impasse não é a natureza do homem, mas a questão da soberania, e a potencial re-liberação da megalotimia é a provável recusa das pessoas, empresas e países ao redor do mundo a serem comandados por um punhado de gigantes americanos.

Poder da Big Tech e # 8217s

Na semana passada, em resposta à violência no Capitólio e ao fato de ter sido incitado por Trump, primeiro o Facebook e depois o Twitter descodificaram o presidente um dia depois, Apple, Google e Amazon chutaram Parler, outra rede social onde apoiadores de Trump se reuniam e em parte a ação planejada de quarta-feira & # 8217s, fora de suas App Stores e serviço de hospedagem, respectivamente, efetivamente eliminando o serviço.

Depois de anos defendendo as decisões do Facebook e do Twitter & # 8217s de manter Trump em seus serviços, pedi que ele fosse iniciado na quinta-feira passada e expliquei ontem por que a ação coletiva de tecnologia em resposta aos eventos da última quarta-feira & # 8217s foi exclusivamente americana solução para uma crise genuína:

Então, Facebook, Twitter, Apple, Google, Amazon e todo o resto estavam errados, certo? Bem, novamente, o contexto é importante, e novamente, o contexto aqui foi uma autoridade eleita encorajando seus apoiadores a invadir o Capitólio para derrubar um resultado eleitoral e seus apoiadores fazendo isso. O que eu acredito que aconteceu neste fim de semana foi uma solução exclusivamente americana para o problema da recusa de Trump em ceder e tentativas de incitar a violência: toda a América corporativa decidiu coletivamente que já era o suficiente e fez o que o Congresso foi incapaz de fazer, efetivamente acabando com o Trump presidência. Parler, para ser honesto, foi tanto uma vítima espectadora quanto um alvo direto. O fato de o setor de tecnologia ser o único com capacidade para realmente fazer a diferença é o que faz o setor se destacar.

Não estou, para ser claro, dizendo que se trata de algum tipo de solução ideal. Como observei na semana passada, o impeachment é a maneira que isso deveria acontecer, e espero que ainda ocorra. E, como também observei na semana passada, se isso desencadear um debate sobre o poder das empresas de tecnologia, tanto melhor. No entanto, essa solução foi pragmática e, em última análise, eficaz, mesmo que os custos totais levem anos para se materializar (mais uma vez, mais sobre as repercussões de longo prazo em breve).

Em breve, este artigo não é sobre o que é certo ou errado nessas decisões - mais uma vez, por favor, veja os dois artigos que acabei de criar um link -, mas sim sobre as implicações das empresas de tecnologia tomando as medidas que tomaram no fim de semana passado.

A Alemanha e a França atacaram o Twitter Inc. e o Facebook Inc. depois que o presidente dos EUA, Donald Trump, foi desligado das plataformas de mídia social, em uma extensão da batalha da Europa com a grande tecnologia. A chanceler alemã, Angela Merkel, se opôs às decisões, dizendo na segunda-feira que os legisladores deveriam definir as regras que regem a liberdade de expressão e não as empresas privadas de tecnologia.

“A chanceler vê o fechamento completo da conta de um presidente eleito como problemático”, disse Steffen Seibert, seu porta-voz principal, em uma entrevista coletiva regular em Berlim. Direitos como a liberdade de expressão “podem sofrer interferências, mas por lei e dentro da estrutura definida pela legislatura & # 8212, não de acordo com uma decisão corporativa”.

A postura do líder alemão é compartilhada pelo governo francês. O Ministro Junior para Assuntos da União Europeia, Clement Beaune, disse que ficou “chocado” ao ver uma empresa privada tomar uma decisão tão importante. “Isso deve ser decidido pelos cidadãos, não por um CEO”, disse ele à Bloomberg TV na segunda-feira. “É preciso haver regulamentação pública para grandes plataformas online.” O ministro das Finanças, Bruno Le Maire, disse anteriormente que o estado deveria ser responsável pelas regulamentações, ao invés de “a oligarquia digital”, e chamou a grande tecnologia de “uma das ameaças” à democracia.

Não se engane, a Europa é muito mais restritiva na fala do que os EUA, incluindo leis anti-nazistas estritas na Alemanha, o direito de ser esquecido e outras proibições de & # 8220harms & # 8221 amplamente definidos, a diferença da perspectiva alemã e francesa , porém, é que essas restrições vêm do governo, não de empresas privadas.

Este sentimento, como observei ontem, é completamente estranho para os americanos, que independentemente de suas diferenças sobre o grau em que a fala online deve ser policiada, estão unidos em sua crença de que o legislativo é o lugar errado para começar a Primeira Emenda não é justo uma lei, mas uma cultura. A implicação das empresas americanas de tecnologia servindo o mundo inteiro, porém, é que a cultura americana, tão familiar aos americanos, mas anátema para a maioria dos europeus, é a única escolha para esta última.

Políticos do partido governante da Índia & # 8217 expressaram reservas semelhantes do The Times of India:

Os líderes do BJP expressaram preocupação no sábado sobre a suspensão permanente da conta do Twitter do presidente dos EUA Donald Trump & # 8217s pela gigante da mídia social, dizendo que isso abre um precedente perigoso e é um alerta para as democracias sobre a ameaça de grandes empresas de tecnologia não regulamentadas ... & # 8221Se eles podem fazer isso com o Presidente dos Estados Unidos, eles podem fazer isso com qualquer pessoa. O quanto antes a Índia analisa os regulamentos dos intermediários & # 8217, melhores para nossa democracia & # 8221 BJP & # 8217s, o presidente da ala jovem, Tejaswi Surya, disse em um tweet.

As empresas de tecnologia certamente argumentariam que o contexto da remoção de Trump & # 8217s foi excepcional, mas quando se trata de soberania, não está claro por que as considerações políticas domésticas dos EUA são preocupação da Índia & # 8217s, ou de qualquer outro país & # 8217s. O fato de existir a capacidade de seus próprios líderes serem silenciados por um executivo inalcançável e irresponsável em San Francisco é tudo o que importa, e é completamente compreensível pensar que os países acharão esse status quo inaceitável.

As empresas, por sua vez, perceberão o destino de Parler. Claro, poucos têm qualquer intenção de lidar com conteúdo gerado pelo usuário, mas a verdade é que aqui a mudança já começou: a maioria dos varejistas, por exemplo, está se afastando da AWS há anos, este será outro lembrete de que quando o impulso chegar enfiar, os provedores de nuvem agirão primeiro em seus próprios interesses.

Enquanto isso, permanecem as dezenas de milhões de americanos que votaram em Trump, e o número (significativamente) menor que estava em Parler com certeza, eles podem estar (de volta) no Twitter ou Facebook, mas este episódio não será esquecido em breve: o Congresso pode não fizeram uma lei restringindo a liberdade de expressão, mas Mark Zuckerberg e Jack Dorsey fizeram, e Apple, Google e Facebook logo se alinharam. O fato de todas essas empresas serem vistas com um senso de suspeita dramaticamente aumentado não deveria ser uma surpresa.

Internet 3.0: Política

É por isso que suspeito que a Internet 2.0, apesar de sua lógica econômica baseada na tecnologia por trás da Internet, não é o estado final. Quando chamei o status quo atual O fim do começo, acontece que & # 8220O começo & # 8221 a que me referia era História. A capitalização é intencional que Fukuyama escreveu na Introdução de O Fim da História e o Último Homem:

O que sugeri que havia chegado ao fim não foi a ocorrência de eventos, mesmo grandes e graves, mas a História: isto é, a história entendida como um processo único, coerente, evolutivo, quando se leva em conta a experiência de todos os povos em todos os tempos. ... Tanto Hegel quanto Marx acreditavam que a evolução das sociedades humanas não era ilimitada, mas terminaria quando a humanidade alcançasse uma forma de sociedade que satisfizesse seus anseios mais profundos e fundamentais. Ambos os pensadores postularam assim um “fim da história”: para Hegel, este era o estado liberal, enquanto para Marx era uma sociedade comunista. Isso não significava que o ciclo natural de nascimento, vida e morte terminaria, que eventos importantes não aconteceriam mais ou que os jornais que os relatassem deixassem de ser publicados. Significava, ao contrário, que não haveria mais progresso no desenvolvimento de princípios e instituições subjacentes, porque todas as questões realmente importantes haviam sido resolvidas.

Acontece que quando se trata de Tecnologia da Informação, muito pouco está resolvido após décadas de desenvolvimento da Internet e percebendo seu potencial econômico, o mundo inteiro está acordando para a realidade de que a Internet não é simplesmente um novo meio, mas um novo criador da realidade. Escrevi em The Internet and the Third Estate:

O que torna a Internet diferente da impressora? Normalmente, quando escrevo sobre este tópico, concentro-me nos custos marginais: livros e jornais podem ter sido muito mais baratos de produzir do que manuscritos manuscritos, mas ainda não são zero. O que é publicado na Internet, por sua vez, pode chegar a qualquer pessoa em qualquer lugar, aumentando drasticamente a oferta e valorizando a descoberta desse poder econômico transferido de publicações para agregadores.

Tão importante, porém, principalmente em termos de impacto na sociedade, é a redução drástica dos custos fixos. Não apenas os editores existentes podem alcançar qualquer pessoa, mas qualquer um pode se tornar um editor. Além disso, eles nem precisam de uma publicação: a mídia social oferece a todos os meios de transmitir para o mundo inteiro. Leia novamente a descrição de Zuckerberg do Quinto estado:

Pessoas com o poder de se expressar em grande escala é um novo tipo de força no mundo - um Quinto Estado ao lado de outras estruturas de poder da sociedade. As pessoas não precisam mais depender de guardiães tradicionais na política ou na mídia para fazer com que suas vozes sejam ouvidas, e isso tem consequências importantes.

É difícil exagerar o quanto isso é eufemismo. Acabei de contar como a imprensa efetivamente derrubou o First Estate, levando ao estabelecimento de estados-nação e à criação e capacitação de uma nova nobreza. A implicação de derrubar o Second Estate, por meio do empoderamento de plebeus, é quase radical demais para se imaginar.

É difícil acreditar que a discussão dessas implicações será reservada para postagens em sites de nicho como Stratechery, a prensa de impressão transformou a Europa de um continente de cidades-estado fracamente ligadas pela Igreja Católica, a um continente de estados-nação com seus próprias igrejas estaduais. Na medida em que a Internet é uma mudança significativa - e eu acho que é! - é inversamente correlacionado a quão longe estamos na transformação que se seguirá - o que quer dizer que apenas começamos. E, depois da semana passada, o mundo está acordado para o que está em jogo que a política - não a economia - decidirá e será decidida pela Internet.

O retorno da tecnologia

Aqui, a própria tecnologia voltará ao primeiro plano: se a prioridade para um número crescente de cidadãos, empresas e países é escapar da centralização, a resposta não será entidades centralizadas concorrentes, mas sim um retorno aos protocolos abertos. 1 Essa é a única maneira de igualar e talvez superar as vantagens de P&D desfrutadas por empresas de tecnologia centralizadas. As tecnologias abertas podem ser trabalhadas coletivamente e bifurcadas individualmente, obtendo os benefícios de escala e inevitabilidade da soberania e autodeterminação.

Esse processo levará anos, eu esperaria que os governos na Europa em particular tentassem inicialmente e construíssem suas próprias alternativas centralizadas. Esses esforços, no entanto, irão naufragar devido à falta de recursos de P&D e serão superados por alternativas abertas que talvez não sejam tão completas e fáceis de usar quanto as grandes ofertas de tecnologia, pelo menos no curto a médio prazo, mas possuem a característica matadora de não ter um interruptor de eliminação de São Francisco.

Projetos criptográficos são uma manifestação disso, mas não os únicos & # 8617


O nascimento e a ascensão da Ethernet: uma história

Hoje em dia, consideramos a Ethernet um dado adquirido. Conectamos uma tomada de cabo na parede ou em um switch e obtemos a rede. Em que pensar?

Não começou assim. Nas décadas de 1960 e 1970, as redes eram uma mistura ad hoc de tecnologias com pouca rima e menos razão. Mas então Robert "Bob" Metcalfe foi convidado a criar uma rede local (LAN) para o Palo Alto Research Center (PARC) da Xerox. Sua criação, Ethernet, mudou tudo.

Em 1972, Metcalfe, David Boggs e outros membros da equipe PARC designados para o problema de rede não estavam pensando em mudar o mundo. They only wanted to enable PARC's Xerox Alto—the first personal workstation with a graphical user interface and the Mac's spiritual ancestor—to connect and use the world's first laser printer, the Scanned Laser Output Terminal.

It wasn't an easy problem. The network had to connect hundreds of computers simultaneously and be fast enough to drive what was (for the time) a very fast laser printer.

Metcalfe didn't try to create his network from whole cloth. He used previous work for his inspiration. In particular, Metcalfe looked to Norman Abramson's 1970 paper about the ALOHAnet packet radio system. ALOHAnet was used for data connections between the Hawaiian Islands. Unlike ARPANET , in which communications relied on dedicated connections, ALOHAnet used shared UHF frequencies for network transmissions.

ALOHAnet addressed one important issue: how the technology coped when a collision happened between packets because two radios were broadcasting at the same time. The nodes would rebroadcast these "lost in the ether" packets after waiting a random interval of time. While this primitive form of packet collision avoidance worked relatively well, Abramson's original design showed that ALOHAnet would reach its maximum traffic load at only 17 percent of its potential maximum efficiency.

Metcalfe had worked on this problem in grad school, where he discovered that with the right packet-queuing algorithms, you could reach 90 percent efficiency of the potential traffic capacity. His work would become the basis of Ethernet's media access control (MAC) rules: Carrier Sense Multiple Access with Collision Detect (CSMA/CD).

For PARC, though, a wireless solution wasn't practical. Instead, Metcalfe turned to coaxial cable. But rather than call it CoaxNet or stick with the original name, Alto Aloha network, Metcalfe borrowed an obsolete phrase from 19th century scientific history: ether. In 19th century physics, "luminiferous ether" was the term used for the medium through which light traveled.

"The whole concept of an omnipresent, completely passive medium for the propagation of magnetic waves didn't exist," Metcalfe explained in a 2009 interview. "It was fictional. But when David [Boggs] and I were building this thing at PARC, we planned to run a cable up and down every corridor to actually create an omnipresent, completely passive medium for the propagation of electromagnetic waves. In this case, data packets." Appropriately enough, the first nodes on the first Ethernet were named Michelson and Morley, after the scientists who had discovered the non-existence of ether.

On May 22, 1973, Metcalfe wrote a memo to PARC management explaining how Ethernet would work. The coaxial cable was laid in PARC's corridors, and the first computers were attached to this bus-style network on November 11, 1973. The new network boasted speeds of 3 megabits per second (Mbps) and was an immediate hit.

Metcalfe's first Ethernet sketch

For the next few years, Ethernet remained a closed, in-house system. Then, in 1976, Metcalfe and Boggs published a paper, "Ethernet: Distributed Packet-Switching for Local Computer Networks." Xerox patented the technology, but unlike so many modern companies, Xerox was open to the idea of opening up Ethernet to others.

Metcalfe, who left Xerox to form 3Com in 1979, shepherded this idea and got DEC, Intel, and Xerox to agree to commercialize Ethernet. The consortium, which became known as DIX, had its work cut out for it. Aside from internal conflicts (gosh, we've never seen any of those since then, have we?), the IEEE 802 committee, which DIX hoped would make Ethernet a standard, wasn't about to rubber-stamp Ethernet. It took years, but on June 23, 1983, the IEEE 802.3 committee approved Ethernet as a standard. That is to say, Ethernet's CSMA/CD was approved. There were some slight differences between 802.3 and what had by then evolved into Ethernet II (a.k.a. DIX 2.0).

By now, Ethernet had reached a speed of 10 Mbps and was on its way to becoming wildly popular. (At least among networking geeks, the people who could name the seven layers of TCP/IP off the top of their head. Our sort of folks, that is.) In part, that was because the physical design was improving. The first Ethernet used 9.5-mm coaxial cable, also called ThickNet, or as we used to curse it as we tried to lay out the cables, Frozen Yellow Snake. To attach a device to this 10Base5 physical media, you had to drill a small hole in the cable itself to place a "vampire tap." It was remarkably hard to deploy.

Get the latest from Frost & Sullivan — Infrastructure Economics: What IT Leaders Can Learn from the CFO Organization (and Vice Versa)

So-called Thinnet (10Base2) uses cable TV-style cable, RG-58A/U. This made it much easier to lay out network cable. In addition, you could now easily attach a computer to the network with T-connectors. But 10Base2 did have one major problem: If the cable was interrupted somewhere, the entire network segment went down. In a large office, tracking down the busted connection that had taken down the entire network was a real pain in the rump. I speak from experience.

By the 1980s, both 10Base5 and 10Base2 began to be replaced by unshielded twisted pair (UTP) cabling. This technology, 10BaseT, and its many descendants (such as 100Base-TX and 1000Base-T) is what most of us use today.

In the early '80s, Ethernet faced serious competition from two other networking technologies: token bus, championed by General Motors for factory networking, and IBM's far more popular Token Ring, IEEE 802.5.

Token Ring's bandwidth usage was more efficient. Its larger packet sizes—Token Ring at 4 Mbps had a packet size of 4,550 bytes, compared with 10 Mbps Ethernet's 1,514 bytes—made it effectively faster than Ethernet. And 16 Mbps Token Ring was clearly faster to (relative) laymen who couldn't get their heads around true line speed.

Another Ethernet challenger was Attached Resource Computer Network ( ARCNET ). Initially created in the 1970s as a proprietary network by Datapoint Corp., like Ethernet and Token Ring, ARCNET was opened up in the 1980s. ARCNET was also a token-based networking protocol, but it used a bus rather than a ring architecture. In its day, the late '70s, its simple bus-based architecture and 2.5 Mbps speeds made it attractive.

Several things assured that Ethernet would win. First, as Urs Von Burg describes in his book, The Triumph of Ethernet, DEC decided early on to support Ethernet. This gave the fledging networking technology significant support in the IEEE standardization process.

Ethernet was also a far more open standard. IBM's Token Ring was open in theory, but Metcalfe has said that in reality, non-IBM Token Ring equipment seldom worked with IBM computers. Ethernet soon had more than 20 companies supporting it. Its cost-competitive, standards-based products worked together. (Most of the time. With late-1980s networks, most of us tended to choose one hardware vendor for Ethernet cards and stick to that brand.)

ARCNET, which only moved up to 20 Mbps in 1992 with ARCNET Plus, was slower than both by the late 1980s and early 1990s. In no small part because it was both open and had many developers working on it, Ethernet also quickly closed the technology gap with Token Ring.

In particular, 10BaseT, which became an IEEE standard in 1990, allowed the use of hubs and switches. This freed Ethernet from its often cumbersome bus architecture and offered the flexibility of star architecture. This change made it much easier for network administrators to manage their networks and gave users far more flexibility in placing their PCs. By the early 1990s, 10BaseT Ethernet was also much cheaper than Token Ring, no matter which metric you used.

The final nail in Token Ring's coffin came with the widespread introduction of Ethernet switching and 100 Mbps Ethernet. Today, there may still be old Token Ring networks running, but they're historical curiosities. At the same time, 802.11n and other Wi-Fi technologies have become immensely popular. But to supply those Wi-Fi access points with network connectivity, Ethernet will always have a role.


Computers are critical for communication and are the centerpiece of information technology. The early 1990s saw the emergence of household Internet use, which eventually spurred common use of email, websites, blogs, social networking, video chat and Voice-Over-Internet Protocol. Today, many traditional communication modes including postal mail and landline phones seem obsolete.


34 comments on &ldquo The Advantages and Disadvantages of the Internet &rdquo

The rule for opening e-mail attachments should be to never open e-mail attachments that are unexpected, even if they are from people you know. If a hacker spoofs the e-mail system and sends out spam or other attacks while pretending to be someone you know, you will be better protected if you only open expected attachments.

Example: Your friend Joe never sends attachments and suddenly does one day, you can ask Joe what was sent before opening it. If Joe has no idea, then this can prompt a conversation with Joe about the e-mail. I have a friend whose Yahoo account was compromised, and for awhile she seemed to be sending out spam directing people to foreign pharmacies — once she knew about this and got some professional help with the issue, it was resolved — it could just as easily have been spam with attachments that included malware.


Why Is the Internet so Important?

The Internet is important for a huge variety of reasons, and it affects and facilitates nearly every aspect of modern life. The Internet is extremely important in many fields, from education and healthcare to business and government.

The Internet has had an enormous impact on education, streamlining access to information and making it easier for individuals to engage in online learning. Distance education programs make it easier for students from a variety of backgrounds to attend classes remotely, cutting down the need for travel and reducing the resources required for education.

The Internet has also made access to information and communication far easier. Rather than searching the library, users can access vast amounts of information from home computers. Internet access has a huge impact on businesses, allowing employees to work remotely from home and communicate more efficiently. Healthcare is another field greatly affected by the advent of the Internet. Improvements in online connectivity and communication technology allow physicians much greater access to medical resources. Doctors in rural areas can also use the Internet to communicate with experts all over the world, improving the quality of patients' diagnoses and treatments.


Technology is Destroying the Quality of Human Interaction

I had a terrible nightmare the other night. Instead of meeting for a quick cup of coffee, my friend and I spent 30 minutes texting back and forth about our day. After that, instead of going in to talk to my professor during his office hours, I emailed him from home with my question. Because of this, he never got to know who I was, even though he would have been a great source for a letter of recommendation if he had. I ignored a cute guy at the bus stop asking me the time because I was busy responding to a text. And I spent far too much time on Facebook trying to catch up with my 1000+ “friends,” most of whom I rarely see, and whose meaning sadly seems to dispel even more as the sheer number of “connections” I’ve made grows.

Oh wait, that wasn’t a dream. This technological detachment is becoming today’s reality.

Little by little, Internet and mobile technology seems to be subtly destroying the meaningfulness of interactions we have with others, disconnecting us from the world around us, and leading to an imminent sense of isolation in today’s society. Instead of spending time in person with friends, we just call, text or instant message them. It may seem simpler, but we ultimately end up seeing our friends face to face a lot less. Ten texts can’t even begin to equal an hour spent chatting with a friend over lunch. And a smiley-face emoticon is cute, but it could never replace the ear-splitting grin and smiling eyes of one of your best friends. Face time is important, people. We need to see each other.

This doesn’t just apply to our friends it applies to the world around us. It should come as no surprise that face-to-face interaction is proven by studies to comfort us and provide us with some important sense of well-being, whether it’s with friends or friendly cashiers in the checkout line of Albertson’s. That’s actually the motivation behind Albertson’s decision last year to take all of the self-checkout lanes out of its stores: an eerie lack of human contact.

There’s something intangibly real and valuable about talking with someone face to face. This is significant for friends, partners, potential employers, and other recurring people that make up your everyday world. That person becomes an important existing human connection, not just someone whose disembodied text voice pops up on your cell phone, iPad or computer screen.

It seems we have more extended connections than ever in this digital world, which can be great for networking, if it’s used right. The sad fact of the matter is that most of us don’t. It’s too hard to keep up with 1000 friends, let alone 200. At that point, do we even remember their names? We need to start prizing the meaning of quality in our connections, not sheer quantity.

One of my best friends from my hometown has 2,241 Facebook friends. Sure, her posts get a ton of feedback, but when I asked her about the quality of those relationships, she said to me that she really has few friends that she can trust and spend time with happily. Using a strange conundrum like this as a constructive example, we should consider pruning our rampant online connections at the very least.

Past evolutionary psychology research by British anthropologist and psychologist Robin Dunbar has revealed that people are actually limited to a certain number of stable, supportive connections with others in their social network: roughly 150. Furthermore, recent follow-up research by Cornell University’s Bruno Goncalves used Twitter data to show that despite the current ability to connect with vast amounts of people via the Internet, a person can still only truly maintain a friendship with a maximum of 100 to 200 real friends in their social network.

While technology has allowed us some means of social connection that would have never been possible before, and has allowed us to maintain long-distance friendships that would have otherwise probably fallen by the wayside, the fact remains that it is causing ourselves to spread ourselves too thin, as well as slowly ruining the quality of social interaction that we all need as human beings.

If you are planning on buying or want to learn about Phentermine from UK have a look at this Phentermine website to buy Phentermine online or offline from United Kingdom

So what are we doing with 3000 friends on the Internet? Why are we texting all the time? Seems like a big waste of time to me. Let’s spend more time together with our friends. Let’s make the relationships that count last, and not rely on technology to do the job for us.


How Scared Are We?

For the past six years, Day has helped conduct the Chapman University Survey on American Fears, which collects data on what people across the U.S. are most afraid of — from clowns to climate change. In 2015, three of the top five fears reported by participants were cyber terrorism, government data-tracking and corporate data-tracking. Overall, the survey found that technology-related fears were the second most prominent category in a random sample of 1,541 adults.

What people are scared of today, Day says, isn’t often new gadgets or devices. "Technology itself isn't what people fear — and maybe we shouldn't be thinking of that as much as a fear, [but rather] what its effects are," Day says. The perceived negative effects that technology will have on society is more what keeps us up at night.

Of course, the types of fears people have do vary based on factors such as age. The 2019 Chapman survey showed that people got older, they were generally more likely to state that they were afraid or very afraid of technology they didn't understand. Separate studies have also reported on the prominence of technophobia in elderly adults , highlighting a problem that impacts older generations rather than younger ones.

Younger people, Day says, have been shown to be more afraid of specific events, such as robots replacing them in the workplace. And fear of large-scale, catastrophic events has been rising in prominence over the years.


Forty years of the internet: how the world changed for ever

T owards the end of the summer of 1969 – a few weeks after the moon landings, a few days after Woodstock, and a month before the first broadcast of Monty Python's Flying Circus – a large grey metal box was delivered to the office of Leonard Kleinrock, a professor at the University of California in Los Angeles. It was the same size and shape as a household refrigerator, and outwardly, at least, it had about as much charm. But Kleinrock was thrilled: a photograph from the time shows him standing beside it, in requisite late-60s brown tie and brown trousers, beaming like a proud father.

Had he tried to explain his excitement to anyone but his closest colleagues, they probably wouldn't have understood. The few outsiders who knew of the box's existence couldn't even get its name right: it was an IMP, or "interface message processor", but the year before, when a Boston company had won the contract to build it, its local senator, Ted Kennedy, sent a telegram praising its ecumenical spirit in creating the first "interfaith message processor". Needless to say, though, the box that arrived outside Kleinrock's office wasn't a machine capable of fostering understanding among the great religions of the world. It was much more important than that.

It's impossible to say for certain when the internet began, mainly because nobody can agree on what, precisely, the internet is. (This is only partly a philosophical question: it is also a matter of egos, since several of the people who made key contributions are anxious to claim the credit.) But 29 October 1969 – 40 years ago next week – has a strong claim for being, as Kleinrock puts it today, "the day the infant internet uttered its first words". At 10.30pm, as Kleinrock's fellow professors and students crowded around, a computer was connected to the IMP, which made contact with a second IMP, attached to a second computer, several hundred miles away at the Stanford Research Institute, and an undergraduate named Charley Kline tapped out a message. Samuel Morse, sending the first telegraph message 125 years previously, chose the portentous phrase: "What hath God wrought?" But Kline's task was to log in remotely from LA to the Stanford machine, and there was no opportunity for portentousness: his instructions were to type the command LOGIN.

To say that the rest is history is the emptiest of cliches – but trying to express the magnitude of what began that day, and what has happened in the decades since, is an undertaking that quickly exposes the limits of language. It's interesting to compare how much has changed in computing and the internet since 1969 with, say, how much has changed in world politics. Consider even the briefest summary of how much has happened on the global stage since 1969: the Vietnam war ended the cold war escalated then declined the Berlin Wall fell communism collapsed Islamic fundamentalism surged. And yet nothing has quite the power to make people in their 30s, 40s or 50s feel very old indeed as reflecting upon the growth of the internet and the world wide web. Twelve years after Charley Kline's first message on the Arpanet, as it was then known, there were still only 213 computers on the network but 14 years after that, 16 million people were online, and email was beginning to change the world the first really usable web browser wasn't launched until 1993, but by 1995 we had Amazon, by 1998 Google, and by 2001, Wikipedia, at which point there were 513 million people online. Today the figure is more like 1.7 billion.

Unless you are 15 years old or younger, you have lived through the dotcom bubble and bust, the birth of Friends Reunited and Craigslist and eBay and Facebook and Twitter, blogging, the browser wars, Google Earth, filesharing controversies, the transformation of the record industry, political campaigning, activism and campaigning, the media, publishing, consumer banking, the pornography industry, travel agencies, dating and retail and unless you're a specialist, you've probably only been following the most attention-grabbing developments. Here's one of countless statistics that are liable to induce feelings akin to vertigo: on New Year's Day 1994 – only yesterday, in other words – there were an estimated 623 websites. In total. On the whole internet. "This isn't a matter of ego or crowing," says Steve Crocker, who was present that day at UCLA in 1969, "but there has not been, in the entire history of mankind, anything that has changed so dramatically as computer communications, in terms of the rate of change."

Looking back now, Kleinrock and Crocker are both struck by how, as young computer scientists, they were simultaneously aware that they were involved in something momentous and, at the same time, merely addressing a fairly mundane technical problem. On the one hand, they were there because of the Russian Sputnik satellite launch, in 1957, which panicked the American defence establishment, prompting Eisenhower to channel millions of dollars into scientific research, and establishing Arpa, the Advanced Research Projects Agency, to try to win the arms technology race. The idea was "that we would not get surprised again," said Robert Taylor, the Arpa scientist who secured the money for the Arpanet, persuading the agency's head to give him a million dollars that had been earmarked for ballistic missile research. With another pioneer of the early internet, JCR Licklider, Taylor co-wrote the paper, "The Computer As A Communication Device", which hinted at what was to come. "In a few years, men will be able to communicate more effectively through a machine than face to face," they declared. "That is rather a startling thing to say, but it is our conclusion."

On the other hand, the breakthrough accomplished that night in 1969 was a decidedly down-to-earth one. The Arpanet was not, in itself, intended as some kind of secret weapon to put the Soviets in their place: it was simply a way to enable researchers to access computers remotely, because computers were still vast and expensive, and the scientists needed a way to share resources. (The notion that the network was designed so that it would survive a nuclear attack is an urban myth, though some of those involved sometimes used that argument to obtain funding.) The technical problem solved by the IMPs wasn't very exciting, either. It was already possible to link computers by telephone lines, but it was glacially slow, and every computer in the network had to be connected, by a dedicated line, to every other computer, which meant you couldn't connect more than a handful of machines without everything becoming monstrously complex and costly. The solution, called "packet switching" – which owed its existence to the work of a British physicist, Donald Davies – involved breaking data down into blocks that could be routed around any part of the network that happened to be free, before getting reassembled at the other end.

"I thought this was important, but I didn't really think it was as challenging as what I thought of as the 'real research'," says Crocker, a genial Californian, now 65, who went on to play a key role in the expansion of the internet. "I was particularly fascinated, in those days, by artificial intelligence, and by trying to understand how people think. I thought that was a much more substantial and respectable research topic than merely connecting up a few machines. That was certainly useful, but it wasn't art."

Still, Kleinrock recalls a tangible sense of excitement that night as Kline sat down at the SDS Sigma 7 computer, connected to the IMP, and at the same time made telephone contact with his opposite number at Stanford. As his colleagues watched, he typed the letter L, to begin the word LOGIN.

"Have you got the L?" he asked, down the phone line. "Got the L," the voice at Stanford responded.

Kline typed an O. "Have you got the O?"

"Got the O," Stanford replied.

Kline typed a G, at which point the system crashed, and the connection was lost. The G didn't make it through, which meant that, quite by accident, the first message ever transmitted across the nascent internet turned out, after all, to be fittingly biblical:

Frenzied visions of a global conscious brain

One of the most intriguing things about the growth of the internet is this: to a select group of technological thinkers, the surprise wasn't how quickly it spread across the world, remaking business, culture and politics – but that it took so long to get off the ground. Even when computers were mainly run on punch-cards and paper tape, there were whispers that it was inevitable that they would one day work collectively, in a network, rather than individually. (Tracing the origins of online culture even further back is some people's idea of an entertaining game: there are those who will tell you that the Talmud, the book of Jewish law, contains a form of hypertext, the linking-and-clicking structure at the heart of the web.) In 1945, the American presidential science adviser, Vannevar Bush, was already imagining the "memex", a device in which "an individual stores all his books, records, and communications", which would be linked to each other by "a mesh of associative trails", like weblinks. Others had frenzied visions of the world's machines turning into a kind of conscious brain. And in 1946, an astonishingly complete vision of the future appeared in the magazine Astounding Science Fiction. In a story entitled A Logic Named Joe, the author Murray Leinster envisioned a world in which every home was equipped with a tabletop box that he called a "logic":

"You got a logic in your house. It looks like a vision receiver used to, only it's got keys instead of dials and you punch the keys for what you wanna get . . . you punch 'Sally Hancock's Phone' an' the screen blinks an' sputters an' you're hooked up with the logic in her house an' if somebody answers you got a vision-phone connection. But besides that, if you punch for the weather forecast [or] who was mistress of the White House durin' Garfield's administration . . . that comes on the screen too. The relays in the tank do it. The tank is a big buildin' full of all the facts in creation . . . hooked in with all the other tanks all over the country . . . The only thing it won't do is tell you exactly what your wife meant when she said, 'Oh, you think so, do you?' in that peculiar kinda voice "

Despite all these predictions, though, the arrival of the internet in the shape we know it today was never a matter of inevitability. It was a crucial idiosyncracy of the Arpanet that its funding came from the American defence establishment – but that the millions ended up on university campuses, with researchers who embraced an anti-establishment ethic, and who in many cases were committedly leftwing one computer scientist took great pleasure in wearing an anti-Vietnam badge to a briefing at the Pentagon. Instead of smothering their research in the utmost secrecy – as you might expect of a cold war project aimed at winning a technological battle against Moscow – they made public every step of their thinking, in documents known as Requests For Comments.

Deliberately or not, they helped encourage a vibrant culture of hobbyists on the fringes of academia – students and rank amateurs who built their own electronic bulletin-board systems and eventually FidoNet, a network to connect them to each other. An argument can be made that these unofficial tinkerings did as much to create the public internet as did the Arpanet. Well into the 90s, by the time the Arpanet had been replaced by NSFNet, a larger government-funded network, it was still the official position that only academic researchers, and those affiliated to them, were supposed to use the network. It was the hobbyists, making unofficial connections into the main system, who first opened the internet up to allcomers.

What made all of this possible, on a technical level, was simultaneously the dullest-sounding and most crucial development since Kleinrock's first message. This was the software known as TCP/IP, which made it possible for networks to connect to other networks, creating a "network of networks", capable of expanding virtually infinitely – which is another way of defining what the internet is. It's for this reason that the inventors of TCP/IP, Vint Cerf and Bob Kahn, are contenders for the title of fathers of the internet, although Kleinrock, understandably, disagrees. "Let me use an analogy," he says. "You would certainly not credit the birth of aviation to the invention of the jet engine. The Wright Brothers launched aviation. Jet engines greatly improved things."

The spread of the internet across the Atlantic, through academia and eventually to the public, is a tale too intricate to recount here, though it bears mentioning that British Telecom and the British government didn't really want the internet at all: along with other European governments, they were in favour of a different networking technology, Open Systems Interconnect. Nevertheless, by July 1992, an Essex-born businessman named Cliff Stanford had opened Demon Internet, Britain's first commercial internet service provider. Officially, the public still wasn't meant to be connecting to the internet. "But it was never a real problem," Stanford says today. "The people trying to enforce that weren't working very hard to make it happen, and the people working to do the opposite were working much harder." The French consulate in London was an early customer, paying Demon £10 a month instead of thousands of pounds to lease a private line to Paris from BT.

After a year or so, Demon had between 2,000 and 3,000 users, but they weren't always clear why they had signed up: it was as if they had sensed the direction of the future, in some inchoate fashion, but hadn't thought things through any further than that. "The question we always got was: 'OK, I'm connected – what do I do now?'" Stanford recalls. "It was one of the most common questions on our support line. We would answer with 'Well, what do you want to do? Do you want to send an email?' 'Well, I don't know anyone with an email address.' People got connected, but they didn't know what was meant to happen next."

Fortunately, a couple of years previously, a British scientist based at Cern, the physics laboratory outside Geneva, had begun to answer that question, and by 1993 his answer was beginning to be known to the general public. What happened next was the web.

The birth of the web

I sent my first email in 1994, not long after arriving at university, from a small, under-ventilated computer room that smelt strongly of sweat. Email had been in existence for decades by then – the @ symbol was introduced in 1971, and the first message, according to the programmer who sent it, Ray Tomlinson, was "something like QWERTYUIOP". (The test messages, Tomlinson has said, "were entirely forgettable, and I have, therefore, forgotten them".) But according to an unscientific poll of friends, family and colleagues, 1994 seems fairly typical: I was neither an early adopter nor a late one. A couple of years later I got my first mobile phone, which came with two batteries: a very large one, for normal use, and an extremely large one, for those occasions on which you might actually want a few hours of power. By the time I arrived at the Guardian, email was in use, but only as an add-on to the internal messaging system, operated via chunky beige terminals with green-on-black screens. It took for ever to find the @ symbol on the keyboard, and I don't remember anything like an inbox, a sent-mail folder, or attachments. I am 34 years old, but sometimes I feel like Methuselah.

I have no recollection of when I first used the world wide web, though it was almost certainly when people still called it the world wide web, or even W3, perhaps in the same breath as the phrase "information superhighway", made popular by Al Gore. (Or "infobahn": did any of us really, ever, call the internet the "infobahn"?) For most of us, though, the web is in effect synonymous with the internet, even if we grasp that in technical terms that's inaccurate: the web is simply a system that sits on top of the internet, making it greatly easier to navigate the information there, and to use it as a medium of sharing and communication. But the distinction rarely seems relevant in everyday life now, which is why its inventor, Tim Berners-Lee, has his own legitimate claim to be the progenitor of the internet as we know it. The first ever website was his own, at CERN: info.cern.ch.

The idea that a network of computers might enable a specific new way of thinking about information, instead of just allowing people to access the data on each other's terminals, had been around for as long as the idea of the network itself: it's there in Vannevar Bush's memex, and Murray Leinster's logics. But the grandest expression of it was Project Xanadu, launched in 1960 by the American philosopher Ted Nelson, who imagined – and started to build – a vast repository for every piece of writing in existence, with everything connected to everything else according to a principle he called "transclusion". It was also, presciently, intended as a method for handling many of the problems that would come to plague the media in the age of the internet, automatically channelling small royalties back to the authors of anything that was linked. Xanadu was a mind-spinning vision – and at least according to an unflattering portrayal by Wired magazine in 1995, over which Nelson threatened to sue, led those attempting to create it into a rabbit-hole of confusion, backbiting and "heart-slashing despair". Nelson continues to develop Xanadu today, arguing that it is a vastly superior alternative to the web. "WE FIGHT ON," the Xanadu website declares, sounding rather beleaguered, not least since the declaration is made on a website.

Web browsers crossed the border into mainstream use far more rapidly than had been the case with the internet itself: Mosaic launched in 1993 and Netscape followed soon after, though it was an embarrassingly long time before Microsoft realised the commercial necessity of getting involved at all. Amazon and eBay were online by 1995. And in 1998 came Google, offering a powerful new way to search the proliferating mass of information on the web. Until not too long before Google, it had been common for search or directory websites to boast about how much of the web's information they had indexed – the relic of a brief period, hilarious in hindsight, when a user might genuinely have hoped to check all the webpages that mentioned a given subject. Google, and others, saw that the key to the web's future would be helping users excluir almost everything on any given topic, restricting search results to the most relevant pages.

Without most of us quite noticing when it happened, the web went from being a strange new curiosity to a background condition of everyday life: I have no memory of there being an intermediate stage, when, say, half the information I needed on a particular topic could be found online, while the other half still required visits to libraries. "I remember the first time I saw a web address on the side of a truck, and I thought, huh, OK, something's happening here," says Spike Ilacqua, who years beforehand had helped found The World, the first commercial internet service provider in the US. Finally, he stopped telling acquaintances that he worked in "computers", and started to say that he worked on "the internet", and nobody thought that was strange.

It is absurd – though also unavoidable here – to compact the whole of what happened from then onwards into a few sentences: the dotcom boom, the historically unprecedented dotcom bust, the growing "digital divide", and then the hugely significant flourishing, over the last seven years, of what became known as Web 2.0. It is only this latter period that has revealed the true capacity of the web for "generativity", for the publishing of blogs by anyone who could type, for podcasting and video-sharing, for the undermining of totalitarian regimes, for the use of sites such as Twitter and Facebook to create (and ruin) friendships, spread fashions and rumours, or organise political resistance. But you almost certainly know all this: it's part of what these days, in many parts of the world, we call "just being alive".

The most confounding thing of all is that in a few years' time, all this stupendous change will probably seem like not very much change at all. As Crocker points out, when you're dealing with exponential growth, the distance from A to B looks huge until you get to point C, whereupon the distance between A and B looks like almost nothing when you get to point D, the distance between B and C looks similarly tiny. One day, presumably, everything that has happened in the last 40 years will look like early throat-clearings — mere preparations for whatever the internet is destined to become. We will be the equivalents of the late-60s computer engineers, in their horn-rimmed glasses, brown suits, and brown ties, strange, period-costume characters populating some dimly remembered past.

Will you remember when the web was something you accessed primarily via a computer? Will you remember when there were places you couldn't get a wireless connection? Will you remember when "being on the web" was still a distinct concept, something that described only a part of your life, instead of permeating all of it? Will you remember Google?


Assista o vídeo: Jak wejść na router (Pode 2022).