o bibliotecário 2.0 (SP1)

Service Pack 1


  • Facebook

    O Bibliotecário 2.0 on Facebook
  • Outros Blogues


    oitenta e cinco. Get yours at bighugelabs.com/flickr
  • RSS O outro blogue

  • Translate

  • Comentários

  • Arquivos Temáticos

  • Arquivo Mensal

O que é Web 2

Adaptação de pt_BR a pt_PT em Curso

Padrões de design e modelos de negócios para a nova geração de software[1]

30/09/2005

Tim O’Reilly[2]

O estouro da bubble dot com no Outono de 2001 marcou uma reviravolta na web. Muitos concluíram que a web tinha recebido uma publicidade exagerada quando, na realidade, bolhas e consequentes reorganizações parecem ser um traço comum a todas as revoluções tecnológicas. Tais crises tipicamente assinalam o momento em que uma tecnologia ascendente está pronta para assumir seu lugar no centro da acção. Impostores são eliminados, as histórias de verdadeiro sucesso mostram sua força e começa a assentar uma compreensão sobre o que distingue um caso do outro.

O conceito de “Web 2.0” começou com uma conferência de brainstorming entre a O’Reilly e a MediaLive International. Dale Doughherty, pioneiro da web e vice-presidente da O’Reilly, notou que, ao contrário de haver explodido, a web estava mais importante do que nunca, apresentando intrigantes aplicações novas e sítios de sucesso eclodindo com surpreendente regularidade. E, melhor ainda, parecia que as empresas que haviam sobrevivido ao colapso tinham algo em comum. Será que o desmoronamento dot com marcou uma espécie de ponto fulcral dando sentido a uma palavra de ordem do tipo “Web 2.0”? Achámos que sim e, desse modo, nasceu a Conferência Web 2.0.

No ano e meio que se seguiu, o termo “Web 2.0” claramente consagrou-se com mais de 9,5 milhões de menções registadas no Google. Mas ainda existe um enorme desacordo sobre o que significa Web 2.0, alguns menosprezando a expressão — como um termo de marketing sem nenhum sentido — e outros aceitando-a — como a nova forma convencional de conhecimento.

Esse artigo é uma tentativa de esclarecer o que queremos dizer com Web 2.0.

No brainstorming inicial, formulámos a nossa ideia de Web 2.0 através de exemplos:

Web 1.0

 

Web 2.0

DoubleClick

 Google AdSense

Ofoto

 Flickr

Akamai

 Bit Torrent

mp3.com

 Napster

Britannica Online

 Wikipedia

Sítios pessoais

 Blogues

evite

 upcoming.org e EVDB

Especulação com nomes de domínio

 optimização para motores de busca

page views

 custo por clique

“Screen scraping”

 serviços web

publicação

 participação

Sistemas de gestão de conteúdo

 wikis

diretórios (taxonomia)

 tags (“folksonomia”)

stickness

 syndication

 

A lista era interminável. Mas o que nos fazia identificar uma aplicação ou abordagem como “Web 1.0” e outro como “Web 2.0”? (A pergunta é especialmente premente porque a noção de Web 2.0 tornou-se tão popular que actualmente companhias estão usando o termo como uma palavra-chave de marketing sem realmente entender o que quer dizer. É particularmente difícil porque muitas dessas novas empresas viciadas na palavra-chave definitivamente não são Web 2.0 e alguns das aplicações que identificamos como Web 2.0, como o Napster e o BitTorrent nem mesmo são verdadeiras aplicações web!) Começamos por tentar trazer à tona os princípios que, de alguma forma, são demonstrados por histórias de sucesso de web 1.0 e pelas novas aplicações mais interessantes.

1. A Web como plataforma

Como muitos conceitos importantes, o da Web 2.0 não tem fronteiras rígidas mas, pelo contrário, um centro gravitacional. Pode-se visualizar a Web 2.0 como um conjunto de princípios e práticas que interligam um verdadeiro sistema solar de sítios que demonstram alguns ou todos esses princípios e que estão a distâncias variadas do centro.

image001

A figura 1 mostra um mapa de noções de Web 2.0 desenvolvido durante uma sessão de brainstorming durante a FOO Camp, uma conferência na O’Reilly Media. É um trabalho ainda em curso mas que mostra as várias ideias que irradiam do centro da Web.2.

Por exemplo, na primeira conferência de Web 2.0, em Outubro de 2004, na palestra de abertura, John Battele e eu fizemos uma lista preliminar de princípios. O primeiro deles era “A web como plataforma”. Entretanto esse também era o lema da empresa estrela da Web 1.0, a Netscape, que pegou fogo depois de uma inflamada batalha com a Microsoft. Além disso, dois dos nossos exemplos de Web 1.0, a Double Click e a Akamai, eram ambas pioneiras em tratar a rede como plataforma. Não é frequente as pessoas pensarem nelas como “serviços de rede” mas, de facto, o primeiro serviço web amplamente distribuído foi o posicionador de anúncios, assim como também ocorreu com os mashups[3] (para usar um outro termo que vem ganhando terreno ultimamente). Cada anúncio em forma de banner é oferecido como um integração sem fronteira aparente entre dois sítios web, ao apresentar uma página integrada ao leitor num outro computador.

A Akamai também trata a rede como plataforma e, num nível mais profundo da pilha, construindo um sistema de entrega de cache transparente que desafoga o congestionamento da banda larga.

Entretanto, esses pioneiros forneceram contrastes úteis porque os que entraram depois levaram ainda mais longe suas soluções para o mesmo problema, compreendendo mais a fundo a natureza da nova plataforma. Tanto a DoubleClick como a Akamai foram pioneiras da Web 2.0, entretanto também podemos ver como é possível compreender mais sobre as possibilidades através da adopção de padrões adicionais de design Web 2.0.

Vamos aprofundar cada um desses três casos, trazendo à tona alguns dos elementos essenciais de diferença.

Netscape versus Google

Se a Netskape era o exemplo padrão para a Web 1.0, a Google é, com toda certeza, o padrão para a Web 2.0, quanto mais não seja por os respectivos lançamentos na bolsa de valores terem-se tornado acontecimentos determinantes para cada uma de suas eras. Vamos, portanto, começar com uma comparação entre essas duas companhias e seus posicionamentos.

A Netscape definiu “a web como plataforma” em termos do velho paradigma de software: seu produto bandeira era o navegador – uma aplicação para desktop – e sua estratégia era usar seu domínio no mercado de navegadores para construir um mercado de altos preços para produtos servidores. O controle sobre os padrões para a exibição de conteúdo e aplicações no navegador, em tese, daria à Netskape o tipo de poder de mercado que a Microsoft desfrutava no mercado de PCs. Semelhante ao modo como a noção de “carruagem sem cavalos” apresentava o automóvel como uma extensão de algo familiar, a Netscape promoveu um webtop para substituir o desktop e planeou povoar este webtop com atualizações de informação e mini-aplicações empurradas para o webtop por fornecedores de informação que comprariam os servidores da Netscape.

No fim, tanto os navegadores como os servidores web acabaram convertendo-se em banalidades indiferenciadas e o valor dirigiu-se para os serviços oferecidos via plataforma web. A Google, ao contrário, começou sua vida como uma aplicação nativa da web, nunca foi vendida nem empacotada mas oferecida como um serviço pelo qual os utilizadores pagavam directa ou indirectamente. Nenhuma das armadilhas da velha indústria de software estava presente. Não havia prazos marcados para o lançamento de software, apenas aperfeiçoamentos contínuos. Nada de licenças ou vendas, apenas uso. Nada de conversões para diferentes plataformas para que os utilizadores pudessem re-adquirir o software para o mesmo equipamento de sempre, apenas uma colecção altamente re-dimensionável de PCs de linha branca executando, em sistemas operativos de código aberto, programas e ferramentas endógenos que nunca serão vistos por ninguém fora da companhia.

No fundo, a Google requer uma competência de que a Netscape nunca precisou: gestão de base de dados. A Google não se limita a uma colecção de ferramentas de software, é uma base de dados especializada. Sem os dados, as ferramentas são inúteis; sem o software, não se consegue gerir os dados. Licença de software e controle sobre os APIs[4] – a alavanca de poder na era anterior – tornam-se irrelevantes porque o software não precisa mais ser distribuído mas apenas executado e também porque sem a habilidade para recolher e gerir os dados, o software tem pouca utilidade. Na verdade, o valor do software é proporcional à escala e dinamismo dos dados que ele ajuda a gerir.

O serviço da Google não é um servidor – embora ele seja prestado através de uma maciça colecção de servidores de Internet –, nem um navegador – embora seja experimentado pelo utilizador dentro do navegador. Nem o serviço de busca que é o seu produto-bandeira sequer hospeda o conteúdo que ele permite ao cliente encontrar. Muito parecido com um telefonema, que acontece não apenas nos aparelhos em cada extremo da ligação mas na rede entre eles, a Google acontece no espaço entre navegador e ferramenta de busca, e o servidor de conteúdo de destino, como um possibilitador ou intermediário entre o(a) utilizador(a) e a sua experiência online.

Ainda que, tanto a Netscape como a Google, possam ser descritas como companhias de software, fica evidente que a Netscape pertencia ao mesmo mundo de software que Lotus, Microsoft, Oracle, SAP e outras companhias que tiveram seu início durante a revolução do software dos anos oitenta, enquanto pares do Google são outras aplicações de Internet como eBay, Amazon, Napster e, sim, DoubleClick e Akamai.

DoubleClick versus Overture e AdSense

Como a Google, a DoubleClick é um verdadeir bébé  da era da Internet. Ela funciona como um serviço, tem como competência principal a gestão de dados e, como observado acima, foi uma pioneira em serviços web, muito antes que os serviços web sequer tivessem um nome. Entretanto, no fim de contas, a DoubleClick foi limitada pelo seu modelo de negócios. Ela embarcou na noção dos anos noventa de que a rede tinha a ver com publicação e não com participação; os anunciantes, não os consumidores é que estariam no comando;que o tamanho importava e que a internet estava sendo cada vez mais dominada pelos principais sítios web, conforme os números da MediaMetrix e outras companhias de medidas de pontos de anúncios da rede.

 

Como resultado, a DoubleClick orgulhosamente menciona no seu sítio “mais de 2000 implementações bem sucedidas” do seu software. A Yahoo! Search Marketing (antiga Overture) e a Google AdSense, ao contrário, cada uma delas já serve centenas de milhares de anunciantes.

O sucesso da Overture e da Google decorre da compreensão daquilo a que Chris Anderson se refere com “A Cauda Longa”, o poder colectivo de pequenos sítios que constituem a maior parte do conteúdo da rede. As ofertas da DoubleClick requerem um contrato formal de venda, limitando seu mercado aos poucos milhares de grandes sítios da rede. Overture e Google calcularam como tornar possível a colocação de um anúncio em praticamente qualquer página da rede. E, mais ainda, evitaram os formatos tradicionais de anúncio tais como os banners e os popups em favor de textos de anúncio minimamente invasivos, relacionados ao contexto e amigáveis para o consumidor.

A lição da Web 2.0: usar o auto-serviço do consumidor e algoritmos de gestão de dados como alavanca para atingir a rede em toda sua extensão (e não apenas o centro) até à cauda longa e não apenas na cabeça.

image002 Não surpreende pois que outras histórias de sucesso da Web 2.0 demonstrem este mesmo tipo de comportamento. A eBay possibilita transacções ocasionais de poucos dólares entre pessoas físicas, actuando como um intermediário mecânico. A Napster (embora fechada por razões de ordem legal) formou a sua rede não com a construção de um banco centralizado de músicas mas montando um sistema, de tal forma distribuído, que qualquer descarregador também se tornava num servidor e assim aumentava a rede.

Akamai versus BitTorrent

Tal como a DoubleClick, a Akamai está optimizada para fazer negócios com a cabeça, não com a cauda, com o centro, não com as franjas. Embora beneficie os indivíduos da periferia ao facilitar seu acesso aos sítios de alta procura do centro, ela retira o seu lucro dos sítios centrais.

A BitTorrent, como outras pioneiras do movimento P2P[5], assume uma abordagem radical na descentralização da internet. Cada cliente também é um servidor;arquivos são desmontados em fragmentos que podem ser fornecidos de múltiplas localizações, de forma transparente, empregando a rede de descarregadores para fornecerem tanto largura de banda como dados para outros utilizadores. Na verdade, quanto mais popular for o ficheiro mais rapidamente pode ser servido na medida em que há mais utilizadores fornecendo largura de banda e fragmentos do ficheiro completo.

A BitTorrent, portanto, demonstra um princípio chave da Web 2.0: o serviço fica automaticamente melhor quanto mais forem os utilizadores que dele fazem uso. Enquanto a Akamai precisa adicionar servidores para melhorar o serviço, cada consumidor da BitTorrent investe os seus próprios recursos em benefício da comunidade. Existe uma “arquitectura de participação” implícita, uma ética de cooperação embutida pela qual o serviço actua, primariamente, como um intermediário inteligente que conecta as pontas entre si e combina o poder dos próprios utilizadores.

2. Tirando partido da inteligência colectiva

O principal princípio por detrás do sucesso dos gigantes nascidos na era Web 1.0 que sobreviveram para liderar a era Web 2.0 parece ser porque eles souberam aproveitar o poder que a rede tem de tirar partido da inteligência colectiva:

·      Hiperligações são o fundamento da rede. À medida que os utilizadores adicionam conteúdo e sítios novos, esses passam a integrar a estrutura da rede à medida que outros utilizadores descobrem o conteúdo e se conectam a ele. Do mesmo modo que se formam sinapses no cérebro – com as associações fortalecendo-se em função da repetição ou da intensidade – a rede de conexões cresce organicamente, como resultado da actividade colectiva de todos os utilizadores da rede.

·      A Yahoo!, a primeira grande história de sucesso na Internet, nasceu como um catálogo ou directório de links, uma agregação do melhor trabalho de milhares e, depois, de milhões de utilizadores da rede. Apesar da Yahoo!, desde então, ter entrado no negócio de criação de vários tipos de conteúdo, seu papel como portal de entrada para o trabalho colectivo dos utilizadores da rede continua a ser o centro do seu valor.

·      A entrada da Google na área da pesquisa, que rapidamente a transformou em líder indiscutível nesse mercado, foi o PageRank, um método de fornecer melhores resultados de busca, usando a estrutura de links da rede, ao invés de só as características dos documentos.

·      O produto da eBay é a actividade colectiva de todos os seus utilizadores;como a própria web, a eBay cresce organicamente em resposta à actividade do utilizador e o papel da companhia é o de possibilitadora de um contexto em que essa actividade do utilizador possa acontecer. Além disso, a vantagem competitiva da eBay deve-se, quase que totalmente, à massa crítica de compradores e vendedores tornando significativamente menos atraente qualquer novo concorrente que ofereça serviços semelhantes.

·      a Amazon vende os mesmos produtos que concorrentes como Barnesandnoble.com e recebe dos seus fornecedores as mesmas descrições dos produtos, imagens de capa e conteúdo editorial. Mas a Amazon desenvolveu uma ciência sobre o envolvimento do utilizador. Ela tem infinitamente mais avaliações de utilizadores, convites para participar de várias formas em virtualmente todas as páginas – e, ainda mais importante – usa a actividade do utilizador para produzir melhores resultados de busca. Enquanto uma busca da BarnesandNoble.com vai provavelmente levar a resultados encabeçados pelos produtos da própria companhia ou patrocinados, os da Amazon sempre apresentam em primeiro lugar os “mais populares”, uma computação em tempo real baseada não apenas em vendas mas em outros factores que os conhecedores da Amazon chamam de “fluxo” em torno dos produtos. Contando com a participação do utilizador em escala muitíssimo maior, não surpreende que também as vendas da Amazon suplantem as dos concorrentes.

Actualmente, as companhias inovadoras que captaram esse insight, levando-o talvez ainda mais longe, estão deixando sua marca na rede:

·      Wikipedia, uma enciclopédia online baseada na noção duvidosa de que um verbete pode se adicionado por qualquer utilizador da rede e editado por qualquer um outro, é uma experiência de confiança radical, que aplica à criação de conteúdo o ditado de Eric Raymond (originalmente cunhado no contexto de software aberto) de que “com um número suficiente de olhos, todos os bugs tornam-se visíveis”. A Wikipedia já está entre os sítios Top 100 e muitos acreditam que logo estará entre os dez primeiros. Trata-se de uma profunda mudança na dinâmica de criação de conteúdo!

·      Sítios como o del.icio.us e o Flickr, duas companhias que recentemente vêm recebendo bastante atenção, inauguraram um conceito que alguns chamam de “folksonomia” (em oposição a taxonomia), um estilo de categorização colaborativa de sítios que emprega palavras chave livremente escolhidas, frequentemente chamadas de tags[6]. O uso de tags permite associações múltiplas e sobrepostas como as que o próprio cérebro usa ao invés de categorias rígidas. No exemplo típico, uma fotografia de um cachorrinho no Flickr pode ser etiquetada tanto como “cachorrinho” ou como “fofinho” – permitindo ser localizada através de eixos de actividade de utilizador que foram gerados naturalmente.

·      Produtos colaborativos de filtragem de spam como o Cloudmark agregam as decisões individuais de utilizadores de e-mail sobre o que é e o que não é spam, com melhor desempenho do que sistemas baseados na análise das próprias mensagens.

·      É um truísmo que os maiores casos de sucesso na internet não anunciaram seus produtos. Sua utilização se deu por marketing viral, isto é, recomendações que partiram de utilizador para utilizador. Pode-se ter quase certeza de que, se um sítio ou produto depende de publicidade para se tornar conhecido, não é Web 2.0.

·      Até mesmo muito da infra-estrutura da rede – incluindo Linux, Apache, MySQL, e de código Perl, PHP ou Pyton em uso na maioria dos servidores web – apoiam-se nos métodos de produção comunitária de código aberto, eles próprios um exemplo de inteligência colectiva possibilitada pela rede. Há mais de cem mil projectos de software aberto listados no SourceForge.net. Qualquer pessoa pode adicionar um projecto, pode descarregar e usar o código, e novos projectos migram da periferia para o centro como resultado de utilizadores que os fazem funcionar, num processo orgânico de adopção de software baseado quase unicamente no marketing viral.

image003 A lição: Efeitos na rede resultantes das contribuições dos utilizadores são a chave para a supremacia de mercado na era Web 2.0.

Blogues e a sabedoria das massas

Um dos aspectos mais intensamente comentados da era Web 2.0 é o crescimento dos blogues. Páginas pessoais sempre existiram desde os primórdios da rede, e o diário pessoal e a coluna de opinião diária existiam muito antes disso, portanto porquê tanto alvoroço? No seu aspecto mais básico, um blogue é apenas uma página pessoal em formato de diário. Mas, como Rich Skrenta assinala, a organização cronológica de um blogue “parece uma diferença trivial, mas puxa uma cadeia completamente diferente de distribuição, de publicidade e de valor”. Um dos factores que fez diferença foi a tecnologia chamada RSS.

O RSS é o avanço mais significativo na arquitectura básica da rede desde que os primeiros hackers perceberam que a CGI[7] podia ser usada para criar sítios baseados em bases de dados. Permite que alguém não apenas aceda a uma página mas faça uma assinatura sendo notificado cada vez que haja mudanças na página. Skrenta chama a isso de “rede incrementável”. Outros a chamam de “rede viva”.

Agora, é claro, “sítios dinâmicos” (isto é, sítios baseados em bases de dados com conteúdo dinamicamente gerado) substituíram as páginas estáticas há mais de dez anos. O que é dinâmico em termos da rede viva não são apenas as páginas mas os links. Espera-se que um link para um blogue conduza a uma página em permanente mudança, com “permalinks[8] para qualquer entrada individual e notificação de cada mudança. Um link RSS é, portanto, muito mais forte do que, por exemplo, um favorito ou um link para uma única página. O RSS também significa que o navegador de rede não é o único meio de se ver uma página. Enquanto alguns agregadores RSS, como o Bloglines são baseados na rede, outros são clientes desktop e ainda outros permitem que utilizadores de dispositivos portáteis assinem o conteúdo constantemente actualizado.

O RSS está sendo actualmente utilizado para enviar não apenas avisos de actualizações de blogues mas também todos os tipos de actualização de dados, incluindo cotações da bolsa, previsão do tempo e disponibilidade de fotos. Esse uso é, na verdade, uma de suas raízes: o RSS nasceu em 1997, fruto da confluência da tecnologia “Really Simple Syndication” de Dave Winer – usada para enviar actualizações de blogues – e o “Rich Site Summary” da Netscape que permitia aos utilizadores criar páginas pessoais personalizadas no Netscape, com fluxos de dados regularmente actualizados.

A Netscape desinteressou-se, e a tecnologia foi levada adiante pelo pioneiro de blogues Userland, a companhia de Winer. Na actual safra de aplicações percebe-se, entretanto, a herança de ambos os pais.

Mas o RSS é apenas um dos aspectos que faz o blogue ser diferente de uma página normal da rede. Tom Coates chama a atenção para a importância do permalink: O permalink pode parecer, agora, uma peça trivial de funcionalidade mas foi, na verdade, o dispositivo que transformou os blogues, de um fenómeno que facilitava a publicação de conteúdo numa confusão envolvendo conversas entre comunidades sobrepostas. Pela primeira vez, tornou-se relativamente fácil apontar e discutir especificamente um post num sítio pessoal. Iniciavam-se discussões. O chat emergia. E como resultado, amizades formaram-se ou reforçaram-se. O permalink foi a primeira – e mais bem sucedida – tentativa de se construirem pontes entre blogues. De muitas maneiras, a combinação de RSS e permalinks acrescenta ao http – o protocolo web – muitas das características do NNTP – o Network News Transport Protocol (Usenet). A “blogosfera” pode ser pensada como um novo meio de comunicação entre utilizadores, equivalente à Usenet e outros fóruns que foram os pontos de encontro dos primeiros tempos da Internet. As pessoas podem não apenas assinar os sítios umas das outras – obtendo fácil acesso aos comentários individuais de uma página – mas também – via mecanismos como trackbacks[9] – podem ver quando alguém cria links para a sua página e podem responder, quer criando links recíprocos, quer adicionando comentários.

Curiosamente, links de duplo sentido eram o objectivo dos primeiros sistemas de hipertexto como o Xanadu. Os puristas do hipertexto apaludiram os trackbacks como um passo na direcção dos links de duplo sentido. Mas, observe-se que os trackbacks não são propriamente de duplo sentido; na verdade, eles são links de um só sentido (potencialmente) simétricos que criam um efeito de links de duplo sentido. A diferença pode parecer subtil mas, na prática, é enorme. Sistemas de redes sociais como Friendster, Orkut e LinkedIn – que requerem permissão do receptor a fim de que uma conexão possa ser criada – carecem da mesma “escalabilidade” que a web. Como assinalou Caterina Fake, co-fundadora do serviço de partilha de fotos Flickr, a atenção depende da coincidência para ser recíproca. (O Flickr, portanto, permite aos utilizadores estabelecer listas de acompanhamento – qualquer utilizador pode assinar o fluxo de fotografias de qualquer outro, via RSS. O acesso é notificado mas o utilizador não precisa autorizar a conexão).

Se uma parte essencial da Web 2.0 é tirar partido da inteligência colectiva, transformando a web numa espécie de cérebro global, a blogosfera equivale a um constante cavaqueira mental que tem lugar na parte frontal do cérebro, a voz que todos ouvimos nas nossas cabeças. Pode não reflectir a estrutura mais profunda do cérebro – frequentemente inconsciente – mas equivale ao pensamento consciente. E, como reflexo do pensamento consciente e da atenção, a blogosfera começou a exercer um poderoso efeito.

Em primeiro lugar, pelo fato de as ferramentas de busca usarem a estrutura de links para predizer páginas importantes, os blogueiros – como os mais produtivos e actualizados utilizadores de links – exercem um peso desproporcional nos resultados dos mecanismos de busca. Em segundo lugar, o facto da comunidade de blogues ser tão auto-referencial – com blogueiros focalizando a atenção em outros blogueiros – aumenta sua visibilidade e poder. A “câmara de eco” condenada pelos críticos funciona também como amplificador.

Se fossem meramente um amplificador, os blogues não despertariam nenhum interesse. Mas, como a Wikipedia, os blogues capitalizam a inteligência global como uma espécie de filtro. Entra em acção o que James Suriowecki chama de “a sabedoria das massas” e, do mesmo modo que o PageRank produz resultados melhores do que a análise de qualquer documento individual, a atenção colectiva da blogosfera selecciona o valor. Enquanto a mídia tradicional[10] pode encarar os blogues como concorrentes, o que realmente incomoda é que a competição é com a blogosfera global. Não se trata apenas de uma competição entre sítios, mas uma competição entre modelos de negócio. O mundo da Web 2.0 é também o mundo que Dan Gillmor chama de “nós, a mídia”, um mundo em que “os anteriormente designados audiência” – não umas poucas pessoas nos bastidores – decide o que é importante.

3. Dados são o próximo Intel Inside

Até hoje, toda a aplicação importante da Internet tem-se apoiado num banco de dados especializado: robô de indexação do Google, diretório (e robô) do Yahoo!, banco de dados de produtos da Amazon, banco de dados de produtos e vendedores da eBay, banco de dados de mapas da MapQuest, banco de dados “distribuído” de músícas da Napster. No ano passado, em conversa pessoal, Hal Varian comentou que “o SQL[11] é o novo HTML”. O gestão de bancos de dados é a nova competência central das companhias Web 2.0, de tal modo que temos, às vezes, nos referido a esses aplicações como “infoware” ao invés de simplesmente software.

Este facto coloca uma questão central: a quem pertencem os dados?

Na era da Internet, já se conhecem vários casos em que o controle sobre um banco de dados levou ao controle do mercado e enormes retornos financeiros. O monopólio sobre o registro de nomes de domínios, inicialmente concedido pelo governo[12] à Network Solutions (mais tarde comprada pela Verisign), foi um dos primeiros grandes negócios lucrativos da Internet. Enquanto argumentamos que vantagens de negócios pelo controle de APIs[13] é muito mais difícil nos tempos da internet, o mesmo não se dá em relação ao controle sobre fontes de dados, especialmente quando for caro criar tais fontes ou quando elas permitirem retornos crescentes via efeitos de internet.

Leia os avisos de copyright no rodapé de todos os mapas gerado pela MapQuest, maps.yahoo.com, maps.msn.com, ou maps.google.com e encontrará a observação: “Maps copyright NavTeq, Tele Atlas” ou, a partir dos novos serviços de imagens de satélite, “Images copyright Digital Globe”. Essas companhias fizeram investimentos substanciais nos seus bancos de dados (só a NavTeq diz ter investido 750 milhões de dólares para construir seu banco de dados de endereços e indicações de ruas. A Digital Globe gastou 500 milhões de dólares para lançar seu próprio satélite visando aperfeiçoar as imagens fornecidas pelo governo). A NavTeq chegou ao ponto de imitar a conhecida logomarca “Intel Inside” da Intel: automóveis com sistemas de navegação recebem a marca “NavTeq Onboard”. Os dados são de fato o “Intel Inside” dessas aplicações, o único componente essencial em sistemas cuja infra-estrutura de software é principalmente de código aberto e de praticamente todos os outros modos indiferenciado.

Actualmente a disputa acesa que tem lugar na área dos mapas na web demonstra como a falta de percepção sobre a importância de possuir os dados centrais de uma aplicação poderá, eventualmente, enfraquecer o poder competitivo. A MapQuest foi pioneira na categoria de mapas, em 1995. Entretanto, quando a Yahoo!, a Microsoft e mais recentemente a Google decidiram entrar nesse mercado, elas conseguiram facilmente oferecer uma aplicação concorrente simplesmente obtendo licença sobre os mesmos dados.

Compare-se, entretanto, a posição da Amazon.com. Tal como os concorrentes, como a Barnesandnoble.com, o seu banco de dados originalmente veio da R.R. Bowker que fornece os registros ISBN[14]. Entretanto, de modo diferente da MapQuest, a Amazon foi implacável na melhoria dos dados, acrescentando informações fornecidas pelas editoras tais como imagens da capa, sumário, índice e acesso a segmentos seleccionados dos livros. E, o que foi mais importante, ela convidou e convenceu seus utilizadores a fazerem comentários sobre os dados de tal forma que, depois de dez anos, a Amazon.com – e não a Bowker – é a principal fonte de dados bibliográficos sobre livros, referência para estudiosos e bibliotecários, tanto como para consumidores. Também introduziu seu próprio código de identificação, o ASIN[15] – que corresponde ao ISBN quando este existe e/ou cria um código equivalente para produtos sem codificação. Efectivamente, a Amazon “abraçou e ampliou” seus fornecedores de dados.

Imagine se a MapQuest tivesse feito o mesmo: envolver os seus utilizadores no comentário dos mapas e indicações, acrescentando camadas de valor. Teria sido muito mais difícil para os concorrentes entrarem no mercado apenas com a licença sobre o banco de dados.

A chegada recente do Google Maps servirá de laboratório vivo para a concorrência entre vendedores de aplicações e seus fornecedores de dados. O modelo ligeiro de programação do Google levou à criação de numerosos serviços de valor agregado na forma de mashups que ligam o Google Maps a outras fontes de dados acessíveis via internet. O exemplo por excelência de um desses mashups é a housingmaps.com, de Paul Rademacher, que reúne a Google Maps com a Craiglist – dados sobre aluguer de apartamentos e venda de casas – criando uma ferramenta interactiva de busca de imobiliário.

No momento, esses mashups são ainda, sobretudo, experiências inovadoras feitas por hackers, mas que logo serão seguidas por iniciativas empresariais. Na verdade, já se pode ver que, pelo menos para uma classe de programadores, a Google retirou da Navteq o papel de fonte de dados e se interpôs como intermediário privilegiado. Nos próximos anos, esperamos assistir a disputas entre fornecedores de dados e vendedores de aplicações à medida em que vai percebendo a importância de certas classes de dados como blocos de construção para as aplicações Web 2.0.

Já começou a corrida pela posse de certa classe de dados centrais: localização, identidade, calendário de eventos públicos, identificadores de produtos e códigos. Em muitos casos – quando o custo de criação dos dados for significativo – poderá haver uma oportunidade para um jogo estilo Intel Inside, com uma única fonte de dados. Em outros, o vencedor será a companhia que primeiro atingir uma massa crítica de dados através da participação de utilizadores, e transformar esses dados agregados num serviço.

Por exemplo, na área de identidade, PayPal, Amazon’s 1-click e os milhões de utilizadores de sistemas de comunicação podem, todos eles, disputar legitimamente a construção de um banco de dados de identidade que alcance toda a rede. (Sob esse ponto de vista, a recente tentativa da Google de usar os números de telefones celulares como identificadores para as contas de Gmail pode ser um passo na direcção de abranger e expandir o sistema telefónico.) Enquanto isso, novas empresas como a Sxip estão explorando o potencial de identidade distribuída na busca de um tipo de “1-click distribuído” que fornecerá um subsistema de identidade Web 2.0 sem costura visível. Na área de calendários, o EVDB[16] é uma tentativa de construir o maior calendário partilhado do mundo através de uma arquitectura de participação de estilo wiki. Enquanto não sai o veredicto sobre o sucesso de nenhuma empresa ou abordagem em particular, é claro que normas e soluções nessas áreas – que efectivamente transformem certas classes de dados em sistemas fiáveis do “sistema operativo da internet” – tornarão possível a próxima geração de aplicações.

Ainda um outro ponto deve ser considerado em relação a dados: a preocupação do utilizador com privacidade e direitos sobre seus dados próprios. Em muitos das aplicações do início da era web, o copyright é muito superficialmente garantido. Por exemplo, a Amazon declara direitos sobre qualquer avaliação registada no seu serviço mas, na ausência de fiscalização, as pessoas podem colocar a mesma avaliação noutro lugar. Entretanto, à medida que as companhias começam a perceber que o controle sobre os dados pode ser sua principal fonte de vantagem competitiva, poderemos testemunhar um aumento nas tentativas de controlá-los.

Da mesma maneira que o crescimento do software proprietário levou ao movimento do software livre, há a expectativa de que, na próxima década, o crescimento dos bancos de dados proprietários resulte num movimento “Free Data”. Os primeiros sinais dessa tendência inconformista já podem ser notados nos projectos de dados abertos como Wikipedia, Creative Commons e em projectos de software – como o Greasemonkey – que permitem aos utilizadores assumir o controle de como os dados aparecem no seu computador.

4. O fim do ciclo de lançamentos de software

Como observado acima quando da discussão Google versus Netscape, uma das características que define a era software da internet é que o software é apresentado como um serviço e não um produto. Esse facto acarreta mudanças fundamentais no modelo de negócios da companhia:

1.      As operações precisam se tornar uma competência central. A competência em desenvolvimento de produto da Google ou da Yahoo! precisa estar no mesmo nível da competência das operações do dia-a-dia. A mudança do software como produto para software como serviço é tão fundamental que o software deixará de funcionar a não ser que receba manutenção diária. A Google tem que percorrer a rede continuamente e actualizar seus índices, filtrar o spam de links e outras tentativas de influenciar os seus resultados, responder contínua e dinamicamente a centenas de milhões de inquéritos assíncronos dos utilizadores e, simultaneamente, estabelecer a correspondência entre elas e a publicidade contextual.

Não é por acaso que o sistema de administração da Google, suas técnicas de rede e de balanço de carga seja, talvez, segredo mais bem guardado do que os seus algoritmos de busca. O sucesso da Google em automatizar tais processos é um factor chave da sua vantagem, em termos de custo, sobre os concorrentes.

Também não é por acaso que linguagens de script tais como Perl, Python, PHP e, agora, a Ruby sejam tão importantes para as companhias web 2.0. O Perl foi notavelmente descrito por Hassan Schroeder, o primeiro webmaster da Sun, como a “Fita-Cola da internet[17]”. Linguagens dinâmicas (frequentemente chamadas de linguagens de script e olhadas com desdém pelos engenheiros de software da era dos artefactos programáveis) são a ferramenta preferida dos administradores de sistemas e de rede, assim como dos programadores de aplicações para a construção de sistemas dinâmicos que requerem alteração constante.

2.      Utilizadores devem ser tratados como co-programadores, em referência às práticas de desenvolvimento do código aberto (mesmo se for pouco provável que o software em questão seja lançado sob uma licença de código aberto). O lema do código aberto “lançar cedo e lançar sempre” transformou-se numa posição ainda mais radical, “o beta perpétuo”, em que o produto é desenvolvido em aberto, com novos recursos surgindo a cada mês, semana ou mesmo dia. Não é por acaso que se pode esperar que serviços tais como Gmail, GoogleMaps, Flickr, del.icio.us e outros do mesmo tipo carreguem o logo “Beta” por anos a fio.

A monitorização em tempo real do comportamento do utilizador, para aferir exactamente quais e como os novos recursos estão sendo usados, torna-se, portanto, uma outra importante competência a ser exigida. Um programador web de um grande serviço online comentou: “Todos os dias disponibilizamos dois ou três recursos nalgum lugar do sítio e se os utilizadores não os utilizam, nós os removemos. Se eles agradam, nós os implementamos no sítio todo.”

Carl Henderson, o principal programador do Flickr, recentemente revelou que eles implementam novos recursos a cada meia hora. Este é, claramente, um modelo de desenvolvimento radicalmente diferente!

Embora nem todas as aplicações web sejam desenvolvidas em estilo tão extreme como o do Flickr, quase todas têm um ciclo de desenvolvimento radicalmente diferente de qualquer coisa da era PC ou cliente-servidor. É por esta razão que um editorial recente da ZDnet concluiu que a Microsoft não será capaz de vencer a Google: “O modelo de negócios da Microsoft depende de todos fazerem um upgrade do seu sistema operativo (e restante ambiente computacional) a cada dois ou três anos. O da Google depende de todos explorarem o que há de novo em seu ambiente computacional diariamente.”

Enquanto que a Microsoft tem demonstrado uma enorme capacidade para aprender com a concorrência, e até superá-la, não há dúvida de que, desta vez, a competição vai exigir que ela (e, por extensão, todas as demais companhias de software existentes) se transforme num tipo de companhia profundamente diferente. Companhias nativas da Web 2.0 desfrutam de uma vantagem natural porque não precisam se se desfazer e ultrapassar antigos padrões e normas (e os correspondentes modelos de negócio e fluxos de lucros).

image004 5. Modelos ligeiros de programação

Assim que a ideia de serviços web ficou popular, as grandes companhias entraram na refrega com um conjunto complexo de serviços web, concebidos para criar ambientes de programação altamente fiáveis para aplicações distribuídas. Entretanto, da mesma forma que a web teve êxito exactamente porque subverteu grande parte da teoria de hipertexto, ao substituir um pragmatismo simples por um desenho ideal, o RSS talvez se tenha tornado o serviço web mais amplamente distribuído, provavelmente devido à sua simplicidade, enquanto os complexos serviços web corporativos ainda precisam alcançar ampla distribuição. Do mesmo modo, os serviços web da Amazon.com são fornecidos de duas formas: uma que segue os formalismos do conjunto de serviços web SOAP (Simple Object Access Protocol), e a outra simplesmente fornecendo dados XML via HTTP, através de uma abordagem ligeira, às vezes chamada de ReST (Representational State Transfer).

Enquanto conexões B2B de alto valor (como as que ligam a Amazon a parceiros de retalho como a ToysRUs) usam SOAP, a Amazon informa que 95% do seu uso é de serviço leve do tipo ReST.

Essa mesma procura por simplicidade pode ser encontrada noutros serviços web “orgânicos”. O recente lançamento do Google Maps é um exemplo. Sua interface simples do tipo AJAX (Javascript e XML) foi rapidamente decifrada por hackers que passaram, então, a remisturar os dados formando novos serviços.

Serviços de mapas já estavam disponíveis na web há algum tempo em fornecedores de GIS[18] tais como ESRI, MapQuest e Microsoft MapPoint. Mas o Google Maps causou uma revolução devido à sua simplicidade. Enquanto a experiência com qualquer serviço web formal mantido por um fornecedor exigia um contrato formal entre as partes, o modo como o Google Maps foi implementado deixava os dados disponíveis e logo os hackers encontraram formas de reutilizá-los criativamente.

Existem aqui, várias lições significativas:

1.      Apoie modelos ligeiros de programação que permitam a criação de sistemas ligeiramente acoplados. A complexidade do conjunto de serviços financiados por corporações é planeada para permitir acoplamento firme. Enquanto que em muitos casos, isso é necessário, muitos das aplicações mais interessantes podem, de facto, permanecer ligeiramente acopladas e até mesmo frágeis. A mentalidade Web 2.0 é muito diferente da tradicional mentalidade IT[19]!

2.      Pense em sindicalização, não em coordenação. Serviços web simples, como o RSS e os baseados no sistema ReST têm a ver com sindicalizar os dados para o exterior e não em controlar o que acontece com eles quando chegam ao outro lado da conexão. Esta ideia é fundamental para a própria internet, um reflexo do que se conhece por princípio ponto-a-ponto.

3.      Projecte para “hackealilidade” e “remixabilidade”. Sistemas como a web original, RSS e AJAX têm em comum fracas barreiras à reutilização. Grande parte dos programas úteis são de código aberto e, mesmo quando não o são, há pouco esforço no sentido de protecção à propriedade intelectual. A opção do navegador web “View Source” possibilitou que qualquer utilizador copiasse a página web de qualquer outro; o RSS foi projectado para dar poder ao utilizador de ver o conteúdo que ele quer e quando quer, sem precisar da autorização do fornecedor da informação; os serviços web de maior sucesso são os que foram mais fáceis de serem levados em direcções nunca imaginadas por seus criadores. A expressão “alguns direitos reservados”, popularizada pelo Creative Commons para contrastar com o mais típico “todos os direitos reservados”, é um indicativo útil.

Inovação na montagem

Modelos de negócio ligeiros são um concomitante natural de programação ligeira e conexões ligeiras. A mentalidade Web 2.0 é boa para a reutilização. Um serviço novo como o housingmaps.com foi construído simplesmente pela junção de dois outros já existentes. O housingmaps.com não tem (ainda) um modelo de negócio mas, para muitos serviços de pequena escala, a Google AdSense (ou talvez as comissões de afiliados da Amazon, ou ambos) forneça o equivalente a um modelo satisfatório de remuneração.

Estes exemplos propiciam um insight em relação a outro princípio-chave da web 2.0 que chamamos de “inovação na montagem”. Quando os componentes indiferenciados são abundantes, pode-se criar valor simplesmente pela sua montagem de formas novas ou eficientes. Do mesmo modo que a revolução PC criou muitas oportunidades de inovação na montagem de hardware indiferenciado, com companhias como a Dell criando uma ciência em cima dessa montagem e, portanto, derrotando companhias cujos modelos de negócio precisavam de inovação em desenvolvimento de produto, acreditamos que a Web 2.0 irá criar oportunidades para que companhias superem a concorrência ao serem melhores no aproveitamento e integração de serviços oferecidos por outras.

6. Software multi-dispositivo

Uma outra característica Web 2.0 que merece menção é o facto de que ela já não se limita à plataforma PC. Ao deixar a Microsoft, o programador de longa data Dave Stutz deixou o conselho que “Software útil que for escrito acima do nível do dispositivo único proporcionará altas margens por um bom tempo.”

Naturalmente, qualquer aplicação web pode ser vista como software com mais de um dispositivo. Afinal de contas, até a aplicação mais simples envolve pelo menos dois computadores: o que hospeda o servidor web e o que hospeda o navegador. E, como já dissemos, o desenvolvimento da web como plataforma estende essa ideia a aplicações sintéticas compostas de serviços fornecidos por múltiplos computadores. Entretanto, do mesmo modo como acontece com muitas áreas Web 2.0 – onde o “2.0” não é novidade e sim uma realização mais plena do verdadeiro potencial da plataforma web – esta expressão nos fornece um insight-chave sobre como projectar aplicações e serviços para a nova plataforma.

Até hoje, o iTunes é o melhor exemplo desse princípio. Ele vai directamente do dispositivo portátil até uma maciça infra-estrutura web, com o PC actuando como cache e estação de controle local. Houve várias tentativas prévias de levar conteúdo web a dispositivos portáteis, mas a combinação iPod/iTunes é uma das primeiras aplicações projectadas do zero para atingir múltiplos dispositivos. O TiVo é um outro bom exemplo.

O iTunes e o TiVo também servem para demonstrar muitos dos outros princípios centrais de Web 2.0. Não são aplicações web em si mas nivelam o poder da plataforma web, tornando-a uma parte integrante, quase invisível, da sua infra-estrutura. A gestão de dados é mais claramente o ponto central da oferta. São serviços e não aplicações empacotadas (embora, no caso do iTunes, possa ser usado como tal, gerindo apenas os dados locais do utilizador). Além disso, tanto TiVo como iTunes apresentam um uso crescente de inteligência colectiva, ainda que, nos dois casos, suas experiências estejam em guerra com o lobby da propriedade intelectual. Existe apenas uma limitada arquitectura de participação no iTunes embora o recente aparecimento dos podcasts traga uma mudança substancial para a equação.

Esta é uma das áreas de Web 2.0 onde esperamos ver algumas das maiores mudanças, à medida que for aumentando o número de dispositivos conectados à nova plataforma. Quais as aplicações possíveis quando nossos telefones e nossos automóveis não estão consumindo mas, enviando dados? A monitorização de tráfego em tempo real, flash mobs e jornalismo comunitário são apenas alguns dos sinais que chamam a atenção para as capacidades da nova plataforma.

7. Experiência rica do utilizador

Desde o navegador Viola, de Pei Wei, em 1992, a web vem sendo usada para enviar mini-aplicações e outros tipos de conteúdo activo para dentro do navegador. A introdução do Java, em 1995, foi projectada em torno da entrega desses mini-aplicações. O JavaScript e, depois, o DHTML[20] foram introduzidos como formas ligeiras de prover “programabilidade” e experiência rica do utilizador para o lado cliente. Há alguns anos, a Macromedia cunhou a expressão “Rich Internet Applications”[21] (que também foi aproveitada pela Laszlo Systems – concorrente de código aberto do Flash) para enfatizar a capacidade do Flash para entregar não apenas conteúdo multimédia mas também experiências com aplicações de estilo GUI[22].

Entretanto, o potencial da web para enviar aplicações de grande porte não se concretizou até que a Google introduziu o Gmail, rapidamente seguido pelo GoogleMaps – aplicações web com experiência rica do utilizador e interactividade equivalente à do PC. A colecção de tecnologias usada pela Google foi baptizada de AJAX[23], num artigo seminal de Jesse James Garret, da firma de web design Adaptative Path. Dizia ele: “AJAX não é uma tecnologia. São, na verdade, várias tecnologias, cada uma florescendo a seu modo, e reunindo-se em poderosas formas novas. AJAX incorpora:

  • Apresentações baseadas em padrões usando XHTML e CSS;
  • Exibição e interacção dinâmicos usando o “Document Object Model”;
  • Troca e manipulação de dados usando XML e XSLT;
  • Recuperação de dados assíncronos usando XMLHttpRequest;
  • e JavaScript para juntar tudo”.

O AJAX também é um componente-chave de aplicações Web 2.0 como o Flickr – agora parte da Yahoo! –, as aplicações basecamp e backpack do 37signals, assim como outras aplicações Google como Gmail e Orkut. Estamos entrando num período sem precedentes de inovação na interface de utilizador, à medida em que os programadores web estão finalmente em condições de construir aplicações web tão ricas como as aplicações locais dos PC.

image005 Curiosamente, muitas das capacidades que estão sendo actualmente exploradas já estavam disponíveis há vários anos. No fim dos anos 90, tanto a Microsoft como a Netscape tinham ideia do tipo de capacidades que estão sendo, agora, finalmente concretizadas, mas a disputa sobre as normas a serem empregues dificultou as aplicações para múlti-navegadores. Foi só quando a Microsoft definitivamente ganhou a guerra e passou a haver, de fato, uma única norma de escrita para navegador, que esse tipo de aplicação se tornou possível. E, apesar do Firefox ter reintroduzido a competição no mercado de navegadores, pelo menos até agora, não temos assistido à mesma disputa destrutiva sobre normas web, que deteve o progresso nos anos 90.

Esperamos ver muitas aplicações web novas nos próximos anos, tanto as verdadeiramente novas, como ricas re-implementações para web de aplicações PC. Até hoje, toda mudança de plataforma também criou oportunidades para uma mudança de liderança das aplicações dominantes da plataforma anterior.

O Gmail já produziu algumas inovações interessantes na área de e-mail, combinando os pontos fortes da web (acesso de qualquer parte, imensas capacidades de bancos de dados, possibilidades de busca) com interfaces de utilizador que se aproximam das interfaces PC em termos de usabilidade. Enquanto isso, outros clientes de e-mail na plataforma PC estão arranhando o problema pelo outro lado, adicionando IM[24] e capacidades presenciais.

Quão distantes estamos de um cliente de comunicações integrado que combine o melhor do e-mail, IM e celular usando VoIP[25] para adicionar capacidades de voz às aplicações web? A corrida já começou.

É fácil visualizar como a Web 2.0 também vai refazer o livro de endereços. Um livro de endereços no estilo Web 2.0 iria tratar o livro de endereços local, do PC ou telefone, simplesmente como um cache dos contactos que você tivesse explicitamente pedido ao sistema para armazenar. Enquanto isso, um agente web de sincronização, do estilo Gmail, lembraria qualquer mensagem enviada ou recebida, todos os endereços de e-mail e números de telefone utilizados e iria construir redes sociais heurísticas para decidir quais as alternativas a apresentar quando uma resposta não fosse localizada no cache local. Não encontrando ali a resposta, o sistema pesquisaria a rede social mais ampla.

Um editor de texto Web 2.0 suportaria a edição colaborativa no estilo wiki[26] e não apenas de documentos independentes. Mas também iria suportar a formatação rica que passamos a esperar de editores de texto no PC. O Writely é um bom exemplo de uma dessas aplicações, embora ainda não tenha muita aceitação. A revolução Web 2.0 também não se limitará a aplicações PC. A Salesforce.com mostra como a web pode ser usada para usar software como um serviço, em aplicações em escala empresarial como o CRM[27].

A oportunidade de concorrência para novos participantes está em abranger inteiramente o potencial da Web 2.0. As empresas que conseguirem irão criar aplicações que aprenderão com os seus utilizadores, usando uma arquitectura de participação para obter vantagem poderosa não apenas na interface de software, mas na riqueza dos dados compartilhados.

Competências centrais das companhias Web 2.0

Ao explorar os sete princípios acima, enfatizamos alguns dos principais recursos Web 2.0. Cada um dos exemplos discutidos demonstra um ou mais desses sete princípios chave, mas pode não apresentar outros. Vamos encerrar, portanto, resumindo as que acreditamos serem as competências centrais das companhias Web 2.0:

  • Serviços e não software empacotado, com “escalabilidade” de custos eficiente
  • Controle sobre fontes de dados únicas e difíceis de serem re-criadas e que ficam mais ricas quanto mais as pessoas as utilizarem
  • Confiança nos utilizadores como co-programadores
  • Agregação de inteligência colectiva
  • Estimular a cauda longa através de auto-serviço para o cliente
  • Software para mais de um dispositivo
  • Interfaces de utilizador, modelos de desenvolvimento e modelos de negócios ligeiros

Da próxima vez que uma companhia reivindicar ser “Web 2.0”, compare suas características com a lista acima. Quanto mais pontos obtiverem, mais fará jus ao nome. Lembre-se, no entanto, que excelência nma área pode contar mais do que alguns pequenos passos em todas as sete.




[1] Publicado em O’Reilly (http://www.oreilly.com/) Copyright 2006 O’Reilly Media, Inc. Tradução: Miriam Medeiros. Revisão técnica: Julio Preuss. Novembro 2006, Adaptação para Português Ibérico por Júlio Anjos e ….

[2] Presidente e CEO. O’Reilly Media, Inc., Tim@oreilly.com

[3] N.T. Mashup: aplicação web híbrido. Da Wikipedia: “Um mashup é um sítio web ou aplicação web que combina, numa experiência integrada (sem costura aparente), conteúdo de mais de uma fonte.

[4] N.T. Iniciais de Application Program Interface: Interface para Programação de Aplicações.

[5] N.T. Peer-to-Peer: Utilizador a utilizador.

[6] N.T. etiquetas

[7] N.T. Iniciais de Common Gateway Interface: Interface de Passagem Comum.

[8] N.T. Aglutinação de Permanent Link.

[9] N.T. A tradução literal seria “seguir a pista”.

[10] N.T. Em inglês: mainstream media

[11] N.T. Iniciais para Structured Query Language: Linguagem de Questão Estruturada. Usa banco de dados na configuração de uma busca.

[12] N.T. Governo dos Estados Unidos.

[13] N.T. Iniciais de Application Program Interface: Interface para programação de aplicações.

[14] N.T. Iniciais de International Standard Book Number. Número de código internacionalmente aceito de catalogação de livros.

[15] N.T. Iniciais de Amazon Standard Identification Number. Segundo a Amazon informa no seu sítio: “Praticamente todo produto no nosso sítio tem o seu próprio ASIN – um código único que usamos para identificá-lo. Para livros o ASIN é o mesmo que o número do ISBN mas, para todos os outros produtos, cria-se um novo ASIN quando eles passam a integrar o nosso catálogo.

[16] N.T. Iniciais de Events and Venues Database.

[17] NT: SolverTape, no original, uma marca de fita cola isoladora.

[18] N.T. Iniciais de Geographic Information System (Sistema de informação geográfica).

[19] N.T. Iniciais de Information Technology (Tecnologia da informação). N.T. Iniciais de Information Technology (Tecnologia da informação).

[20] N.T. Iniciais de Dynamic Hyper Text Markup Language.

[21] N.T. Em português: “aplicações de internet ricos”.

[22] N.T. Iniciais de Graphical User Interface (Interface de uso gráfico)

[23] N.T. Iniciais de Asynchronous JavaScript + XML.

[24] N.T. Iniciais de Instant Message.

[25] N.T. Inciais de Voice Over Internet Protocol.

[26] N.T. wiki: Sítio colaborativo semelhante a uma sebenta grupo muito mais “adaptável”.

[27] N.T. Iniciais de Customer Relationship Management: gestão de relação com o cliente.

Comentar


XHTML: You can use these tags: <a href="" title=""> <abbr title=""> <acronym title=""> <b> <blockquote cite=""> <cite> <code> <del datetime=""> <em> <i> <q cite=""> <strike> <strong>

Login with Facebook:
Página 1 de 11
 

Bad Behavior has blocked 3894 access attempts in the last 7 days.