‘No último dia 20 de setembro falei (aqui) na coluna sobre a sintonia entre a mídia online e a tradicional, citando, entre outras coisas, a criação de uma rede de vídeos online pela agência de notícias Associated Press (AP). Apostando em novos recursos, a empresa, que em menos de seis meses lançou uma versão RSS de seu conteúdo e expandiu seu leque de serviços para as mídias digitais, mergulha agora de cabeça na praia do podcasting.
Para quem não sabe, superficialmente falando, podcasting diz respeito a uma forma de publicação de áudio via Internet. Através de feeds RSS ou de outro formato semelhante, que funcionam como uma espécie de índice, novos áudios são baixados automaticamente. Estes áudios podem ser programas de rádio, notícias narradas etc. Para que fique mais claro, vale mencionar que o termo podcasting surgiu da contração das palavras ‘broadcasting’ (transmissão) e ‘iPod’ (tocador de áudio portátil criado pela Apple). A matéria em si, ou seja, os áudios são é chamados simplesmente de podcast.
A ação da AP de abraçar o podcasting não foi por acaso. O recurso é hoje utilizado por inúmeros veículos noticiosos no mundo inteiro (incluindo publicações de grande porte como a ABCNews.com, a BBC Radio, o Denver Post, a Forbes, o New York Times e o Washington Post), não só devido a sua praticidade, mas principalmente por sua popularidade. Depois que a Apple lançou o iPod, diversas empresas fabricaram dispositivos similares, aumentando ainda mais o número de adeptos.
Aproveitando a onda, a AP lançou três podcasts noticiosos. Batizados de News.Port, os podcasts estão em versão beta e trazem notícias diretamente da agência. O AP CelecrityFocus, abordando o mundo das celebridades com notícias e entrevistas (atualizado semanalmente); o AP NewsBeat, com um minuto das chamadas mais recentes (atualizado de uma em uma hora); e o AP NewsPulse, com um apanhado de três minutos das principais manchetes (também com atualização a cada hora).
No início, confesso, não levava muita fé no formato. Mas estamos numa época de deslumbre em relação aos dispositivos móveis pessoais. O discman sendo substituído pelos iPods e pelos pen drives que tocam MP3 e possuem rádio FM é um exemplo disso. Cabe, como pesquisadores de mídias digitais, tirarmos o melhor proveito de qualquer dispositivo móvel que esteja em ascensão. E vale ficar de olho em como os primeiros aventureiros estão inserindo notícias nesse dispositivo que está se proliferando de forma espantosa.
Em tempo:
Definições didáticas mais aprofundadas sobre os termos Podcasting e RSS podem ser encontradas tanto na versão em português quanto na em inglês da Wikipedia.’
INTERNET
‘Internet com muitas redes regionais, sem centralização. É a visão da ONU’, copyright O Estado de S. Paulo, 20/11/05
‘A internet, centralizada sob o comando de uma organização ‘quase independente’ americana, tende a se regionalizar, com o surgimento de redes de países ou grupos de países, que se comunicarão entre si mais ou menos como ocorre com os diversos sistemas de telefonia do mundo hoje em dia. A previsão foi feita por Yoshio Utsumi, secretário-geral da União Internacional de Telecomunicação, órgão ligado à ONU, e da Cúpula Mundial sobre a Sociedade da Informação, encerrada sexta-feira. ‘Isso já ocorre na China, onde domínios chineses estão sendo criados’, disse Utsumi.
A declaração é polêmica por causa do conflito entre os Estados Unidos e um grupo de países em desenvolvimento, entre eles o Brasil e a China, centrado justamente na questão de quem deve gerir a internet e, especificamente, controlar o registro de domínios (os sufixos .com e .br, por exemplo) e os endereços virtuais.
Após vários meses de disputa, os EUA acabaram vencendo. Na Cúpula de Túnis, ficou decidido que o registro de domínios e endereços de internet, entre outras funções fundamentais para o funcionamento da rede tal como a conhecemos hoje, continuarão a ser de responsabilidade do Icann, com sede na Califórnia.
O Icann é uma organização não-lucrativa e quase independente, que registra os domínios e os endereços de internet de todo o mundo, além de controlar os computadores centrais da rede.
Embora o governo dos EUA afirme não interferir nas decisões do órgão, diversos países fizeram uma tentativa de transferir a gestão da rede para uma organização internacional, multilateral e mais transparente, argumentando que a rede é hoje um fenômeno global.
Apesar de terem recebido o apoio da União Européia quase na última hora, a proposta desse grupo de países não foi aceita pelos EUA, que criou a internet nos fim dos anos 1960 e investiu grande quantidade de recursos para construí-la nas décadas seguintes.
No início da cúpula, foi anunciado um acordo segundo o qual o Icann mantém o registro de domínios e endereços e outras funções relativas à gestão da internet.
Em contrapartida, os EUA aceitaram a criação de um Fórum de Governança da Internet, que articulará políticas relativas a outras questões importantes, como combate ao crime virtual, defesa da privacidade, etc.
Ambos os lados cantaram vitória, mas os EUA mantiveram o controle, ainda que não direto e explícito, sobre a internet. Para Utsumi, no entanto, o atual acordo poderá ter vida curta. ‘Não sei se essa solução será a final porque a internet está mudando muito rapidamente e não sabemos como será a rede no futuro.’
Ele levantou a possibilidade de a internet deixar de ser centralizada, no que diz respeito ao registro de domínios e endereços, e ser substituída por uma série de redes regionais que se comunicariam entre si. ‘Grande parte do tráfego de internet em um país ou região ocorre em sites daquele próprio país. Então é possível que surjam redes regionais, nos idiomas locais, que se liguem as outras como acontece hoje com os sistemas de telecomunicação regionais e internacional.’
Na China, um dos países onde a internet cresce com maior rapidez, apesar do controle rígido imposto pelo governo, isso já começa a ocorrer, disse Utsumi.
Um dos argumentos dos EUA contra a internacionalização da gestão da internet foi justamente o de que cresceria a influência de países não-democráticos, como a China, sobre a rede.
Na queda-de-braço com os EUA, os países favoráveis à mudança ameaçaram criar uma rede paralela, caso sua reivindicação não fosse ouvida. Os EUA contra-atacaram dizendo que isso prejudicaria a internet e seus usuários.
O tema ameaçou dominar a cúpula, prejudicando a discussão de assuntos mais centrais para o encontro, cuja missão central era propor medidas para reduzir o fosso digital entre os países ricos e os pobres.
Mas Utsumi viu o fato com outros olhos: ‘Essa polêmica chamou a atenção de vocês, jornalistas, que vieram para cá cobrir o evento’.
Ao fazer um balanço sobre os resultados do evento, ele disse que o maior feito da Cúpula de Túnis foi ter levado a maioria dos países do mundo a um consenso de que o investimento nas novas tecnologias digitais é essencial para o desenvolvimento sustentável.
‘Quando iniciamos, há sete anos, o longo caminho que termina hoje, muitos chefes de Estado ou de governo com quem me reunia achavam que discutir tecnologia da informação era algo muito técnico, que não lhes dizia respeito. Agora, todos concordam que esse é um tema fundamental e muitos estão firmemente engajados em definir estratégias nacionais.’
PROCESSO
A Cúpula Mundial sobre a Sociedade de Informação teve um formato único entre as diversas conferências do tipo realizadas pela ONU. Teve uma primeira fase, há dois anos, que resultou em uma Declaração de Princípios e um Plano de Ação. E uma segunda fase neste ano, em que se buscou detalhar as propostas e dar passos para a implementação das propostas.
‘Chegamos ao fim de um processo, mas o desafio de reduzir o fosso digital está apenas começando’, disse Utsumi, que continuará coordenando os esforços para incluir os países pobres e em desenvolvimento na era digital.
Segundo o secretário-geral, diversas agências da ONU trabalharão nos próximos anos para transformar em realidade as decisões tomadas em Túnis (2005) e Genebra (2003).
O trabalho será realizado juntamente com cerca de 2.500 parceiros já inscritos, além, é claro, de governos de todo o mundo.
‘Será um trabalho multilateral, descentralizado, de baixo para cima.’
Utsumi prometeu convocar as primeiras reuniões dentro de poucas semanas. ‘Proponho a vocês que cobriram o evento que continuem acompanhando o processo porque haverá novidades’, afirmou, com o misto de timidez e determinação típico dos japoneses.
Ao ser questionado sobre o que faria no caso de governos de países não realizarem sua parte na concretização das metas de Túnis, ele deu uma resposta algo surpreendente.
‘Não tenho uma vareta para castigar ninguém. Mas os países que não aproveitarem essa oportunidade ficarão para trás. E isso será uma estupidez muito grande.’
Utsumi também criticou a ausência de líderes políticos dos países desenvolvidos no encontro de Túnis. ‘Admito que a participação de líderes do Ocidente foi limitada. Mas o entendimento deles também é limitado.’
Detalhes dos dois documentos aprovados na semana passada na Tunísia, intitulados Compromisso de Túnis e Agenda de Túnis para a Sociedade da Informação, estão no site www.itu.int/wsis.’
Chris Nuttall
‘Novas empresas mudam internet’, copyright Folha de S. Paulo / The Financial Times, 20/11/05
‘O pior pesadelo de Bill Gates está se concretizando no Ritual Coffee Roasters, um café elegante no bairro de Mission, em San Francisco. Em meio aos expressos, os freqüentadores usam seus laptops para conduzir uma revolução na internet que pode abalar o império de software da Microsoft. Cinco anos depois que o fenômeno internet se extinguiu, uma nova versão da Web toma forma.
O presidente do conselho da Microsoft está ciente da ameaça. Em memorando aos seus executivos distribuído na semana passada, ele alertou que a mais recente fase de inovação on-line provavelmente causaria ‘sérias perturbações’ às potências estabelecidas do setor. ‘A próxima geração da internet está sendo criada por meio de um modelo de adoção e popularização promovidas pelas bases de usuários’, acrescentou.
O trabalho realizado nos sofás de cafés elegantes vem gerando processos que ganharam o nome Web 2.0. A natureza discreta do processo é um marco da diferença entre a atual onda de invenções para a internet e o boom dos anos 1990.
Império ameaçado
Talvez o atual movimento não pareça capaz de produzir uma virada tecnológica com força suficiente para desbancar a Microsoft. Afinal, a gigante do software não teve problemas para eliminar a Netscape e adaptar os negócios à internet, quando a mídia on-line nasceu. No entanto, há diferenças que podem fazer essa nova onda mais difícil de derrotar.
O Flickr, um site de troca de arquivos fotográficos que desfrutou de seus 15 minutos de fama no começo do ano como companhia mais comentada do Vale do Silício, recentemente adquirido pelo Yahoo!, é uma das empresas de formato novo mencionadas por Ray Ozzie, vice-presidente de tecnologia da Microsoft, em seu e-mail aos colegas. Além de competidores de maior porte como o Google, uma ‘atividade tremenda no setor de software e serviços vem ocorrendo em empresas iniciantes, no nível de base’, alertou.
Em sua mensagem aos colegas, Gates comparou a importância do memorando de Ozzie ao seu próprio alerta sobre ‘o maremoto da internet’, distribuído há 10 anos, no qual previa que a internet mudaria para sempre a paisagem da computação e que a Microsoft corria o risco de desaparecer caso não se adaptasse.
Ainda que a Microsoft há muito venha usando esse tipo de advertência sombria para estimular seu pessoal a esforços ainda maiores, é evidente que uma importante mudança de maré está em curso no setor de tecnologia.
As opiniões sobre a onda de inovações que surgem com o movimento Web 2.0 variam imensamente. Para aqueles que estão envolvidos no processo, trata-se de uma maneira totalmente nova de produzir e distribuir software.
O líder
O Google se tornou o carro-chefe dessa nova geração de tecnologias: a sofisticada tecnologia de seu serviço de buscas está acessível via internet, e disponível como serviço bancado por publicidade, o que representa imensa diferença com relação à maneira pela qual a Microsoft faz negócios. Outros observadores, embora reconheçam a importância do momento, questionam até que ponto as mudanças serão importantes.
‘Creio que se trate de uma verdadeira revolução’, diz Charlene Li, analista do grupo de pesquisa Forrester. ‘Mas é uma revolução com erre minúsculo, e não maiúsculo. A Web representou uma completa mudança de mentalidade, enquanto o que temos agora é uma variação sobre um tema. Não se trata de uma mudança tão avassaladora na experiência dos consumidores e das empresas.’
Dois importantes desdobramentos que aconteceram desde o final do boom original da internet ajudam a explicar a ascensão da Web 2.0 e talvez permitam que ela se sustente por mais tempo que a encarnação passada da rede.
O primeiro é a difusão do acesso em banda larga. Como destacou Ozzie em seu memorando, as conexões de alta velocidade criaram uma audiência para conteúdo e aplicativos produzidos on-line.
A segunda mudança foi o mercado de publicidade na internet criado pelo Google, um software patrocinado por publicidade e distribuído, que fez com que a Microsoft decidisse entrar em ação.
Boa parte do software que os consumidores empregam, e até mesmo programas necessários a pequenas empresas, podem no futuro vir a ser pagos dessa maneira, de acordo com Ozzie.
Internet mais fácil e barata
Diante desse panorama, as empresas da Web 2.0 descobriram como criar serviços de internet que apelem ao mercado de massa usando recursos mínimos. As palavras de ordem da nova abordagem são sempre que possível desenvolver software ‘peso leve’, com base em blocos tecnológicos básicos, permitindo rápida distribuição pela Web, e usar a experiência adquirida com os usuários iniciais para refinar os serviços.
‘No passado, era necessária uma grande equipe de desenvolvimento e uma forma de distribuir os programas ou seja, muitos recursos’, diz Li. ‘Com a Web 2.0, podemos falar de uma simples dupla de engenheiros que desenvolvem algo interessante e atraente, já que o custo caiu muito.’
Joe Kraus, presidente-executivo de uma empresa iniciante chamada Jotspot, diz que as mudanças foram dramáticas em sua segunda empreitada na internet. Ele foi um dos fundadores do Excite, portal à maneira do Yahoo!.
‘O custo de começar uma empresa hoje em dia é uma ordem de magnitude mais baixa do que o que precisávamos encarar uma década atrás’, diz. ‘Quando comecei no Excite, gastamos US$ 3 milhões no período entre a idéia e colocar um produto no mercado. No caso da Jotspot, esse custo foi de US$ 100 mil.’
Um motivo para a queda nos custos é que os aplicativos agora podem ser criados mais rapidamente com base em módulos básicos disponíveis gratuitamente na forma de software de fonte aberta. Os blocos podem ser combinados, com uma mistura de ferramentas de Web que vêm transformando a experiência dos usuários com a internet. Em lugar de uma aparência geral de browsers, os aplicativos mais recentes se parecem com programas que o usuário instala e armazena no disco rígido de seu computador.
Inovações
Não são apenas os iniciantes que vêm usando essas técnicas. O Google se tornou o principal defensor de muitas das tecnologias leves e padronizadas, e seu lançamento rápido de serviços se tornou um modelo para a Web 2.0.
Nas versões iniciais dos serviços de mapas que são oferecidos pelo Google e pelo Yahoo!, localizar informações em um mapa de ruas on-line exigia que o usuário clicasse em setas que geravam o carregamento de uma nova página.
Agora, os usuários simplesmente podem arrastar o mapa com um cursor continuamente, ao longo da rota que desejam seguir. Em termos de internet, o mapa está sendo gerado dinamicamente com os recursos do browser.
O browser Flock combina muitas das ferramentas associadas à Web 2.0 com o Firefox, um browser de fonte aberta que concorre com o Internet Explorer da Microsoft. O novo aplicativo permite acesso fácil aos blogs e sites de troca de fotos do usuário, inclui novas fontes de conteúdo cujas atualizações o usuário deseje assinar e permite que as listas de páginas interessantes na Web sejam compartilhadas e administradas de maneira mais colaborativa do que as páginas de ‘favoritos’ dos browsers tradicionais.
Microsoft versus Google
A Microsoft encontrou no Google um desafiante em arena muito diferente das guerras dos browsers em que a empresa se envolveu 10 anos atrás, e das quais saiu vitoriosa ao derrotar o Netscape, diz Tim O’Reilly, um dos organizadores da conferência Web 2.0, realizada pela primeira vez em 2004 e responsável pelo nome conferido ao novo movimento. Competir com essa onda de inovações não será tão simples.
‘É um desafio de negócios fundamental que a Microsoft não teve de enfrentar no caso do Netscape’, diz O’Reilly. ‘Será uma batalha que girará em torno de um aplicativo de software.’
Muitos dos mais recentes serviços continuam a ser pequenos e fragmentados. ‘A vantagem das empresas iniciantes é a velocidade com a qual podem se mover, e a Web 2.0 na verdade estende essa vantagem’, diz Kraus. ‘Usualmente, essas ondas de inovação produzem cada qual algumas grandes empresas.’
O serviço que ele dirige planeja encontrar espaço no mercado de software para empresas, oferecendo ‘wikis’, bancos de dados enciclopédicos criados com contribuições de usuários, na forma de intranets para empresas, com o bônus de permitir rápido desenvolvimento de aplicativos com o uso de ferramentas Web 2.0.
Operar aplicativos como esses na forma de serviços via Web, em lugar de como programas instalados em computadores, se tornará a norma para os consumidores dentro de dez anos, ele prevê.
No mundo empresarial, provedores on-line de serviços como a Salesforce.com alegam que isso já se tornou realidade, e que a Web 2.0 endossa os modelos de negócios adotados por elas.
‘A era do negócio tradicional de software, com o modelo de instalar, atualizar e ampliar programas em cada máquina, é coisa do passado. A Microsoft se tornou simplesmente um dinossauro’, disse Marc Benioff, presidente-executivo da Salesforce.com.
Não se pode considerar que a Microsoft está fora da parada, por enquanto. Por meio do MSN, seu serviço de internet, a empresa é um dos gigantes do mundo on-line, ainda que venha encontrando dificuldades para ganhar dinheiro com o serviço e esteja em desvantagem com relação ao Google e ao Yahoo! no que tange a buscas.
A empresa está adaptando o kit de ferramentas Web 2.0 para suas finalidades, tanto o incorporando às suas tecnologias quanto adquirindo empresas iniciantes. Duas semanas atrás, assumiu o controle da FolderShare, um serviço on-line de sincronização de arquivos.
‘Acredito que a competição que está em curso seja bastante saudável’, diz O’Reilly.
‘Não se trata apenas de Microsoft contra Google, mas de Google contra Yahoo!, também. Quando a Microsoft enfrenta concorrentes de qualidade, ela costuma trabalhar bem; quando isso não acontece, seu trabalho é medíocre. Aguardo avidamente por muitas surpresas’.’
***
‘Um Glossário Para A Web 2.0’, copyright Folha de S. Paulo, 20/11/05
‘AdSense: Um plano de publicidade do Google que ajuda criadores de sites, entre os quais blogs, a ganhar dinheiro com seu trabalho. Tornou-se a mais importante fonte de receita para as empresas Web 2.0. Ao lado dos resultados de busca, o Google oferece anúncios relevantes para o conteúdo de um site, gerando receita para o site a cada vez que o anúncio for clicado
Ajax: Um pacote amplo de tecnologias usado a fim de criar aplicativos interativos para a web. A Microsoft foi uma das primeiras empresas a explorar a tecnologia, mas a adoção da técnica pelo Google, para serviços como mapas on-line, mais recente e entusiástica, é que fez do Ajax (abreviação de ‘JavaScript e XML assíncrono’) uma das ferramentas mais quentes entre os criadores de sites e serviços na web
Blogs: De baixo custo para publicação na web disponível para milhões de usuários, os blogs estão entre as primeiras ferramentas de Web 2.0 a serem usadas amplamente
Mash-ups: Serviços criados pela combinação de dois diferentes aplicativos para a internet. Por exemplo, misturar um site de mapas on-line com um serviço de anúncios de imóveis para apresentar um recurso unificado de localização de casas que estão à venda
RSS: Abreviação de ‘really simple syndication’ [distribuição realmente simples], é uma maneira de distribuir informação por meio da internet que se tornou uma poderosa combinação de tecnologias ‘pull’ -com as quais o usuário da web solicita as informações que deseja- e tecnologias ‘push’ -com as quais informações são enviadas a um usuário automaticamente. O visitante de um site que funcione com RSS pode solicitar que as atualizações lhe sejam enviadas (processo conhecido como ‘assinando um feed’). O presidente do conselho da Microsoft, Bill Gates, classificou o sistema RSS como uma tecnologia essencial 18 meses atrás, e determinou que fosse incluída no software produzido por seu grupo
Tagging [rotulação]: Uma versão Web 2.0 das listas de sites preferidos, oferecendo aos usuários uma maneira de vincular palavras-chaves a palavras ou imagens que consideram interessantes na internet, ajudando a categorizá-las e a facilitar sua obtenção por outros usuários. O efeito colaborativo de muitos milhares de usuários é um dos pontos centrais de sites como o del.icio.us e o flickr.com. O uso on-line de tagging é classificado também como ‘folksonomy’, já que cria uma distribuição classificada, ou taxonomia, de conteúdo na web, reforçando sua utilidade
Wikis: Páginas comunitárias na internet que podem ser alteradas por todos os usuários que têm direitos de acesso. Usadas na internet pública, essas páginas comunitárias geraram fenômenos como a Wikipedia, que é uma enciclopédia on-line escrita por leitores. Usadas em empresas, as wikis estão se tornando uma maneira fácil de trocar idéias para um grupo de trabalhadores envolvido em um projeto.’
Bruno Parodi
‘Web 2.0 molda a nova internet’, copyright No Mínimo (www.nominimo.com.br), 18/11/05
‘Há algum tempo a internet dava sinais de que andava meio paradona, meio sem sal. Parecia ter feito tanto esforço no seu início que toda a sua criatividade tinha ficado pelo caminho. Algo similar àqueles cavalos que aceleram no começo de uma corrida para depois chegarem cansados nas últimas posições. Mas, claro, algumas exceções contrariavam essa divagação, como os projetos do bom e tão batido Google, que esbanjaram inovação de modo constante ao longo dos últimos anos.
Mas, como tudo caminha em ciclos, uma hora esse suposto marasmo haveria de dar lugar à retomada do desenvolvimento. Assim, alguns pensadores digitais começaram a definir parâmetros para delimitar melhor essa evolução, chamando este novo estágio da internet de web 2.0. O termo partiu de Dale Doughrty, vice-presidente da O’Reilly Media (http://www.oreillynet.com), respeitada companhia do segmento de tecnologia, e já está amplamente difundido no meio virtual. Por sinal, ‘Web 2.0 Conference’ (http://www.web2con.com) é o nome do evento da atualidade mais conceituado para a discussão de novas tendências da web, fruto justamente dos conceitos de Dale e Tim O`Reilly – presidente da firma que leva o seu sobrenome.
A idéia da web 2.0 é instruir a construção de uma internet ainda mais flexível, integrada e funcional. Passa por revisões não somente tecnológicas, como também do complexo ponto de vista sócio-financeiro. Como seu próprio nome sugere, nela a web – o grupo de páginas que ela contempla – é o pilar principal, onde tudo acontece.
O conceito prevê uma interessante transição do modelo atual de sites concentrando a informação dentro dos seus domínios para uma forma onde inúmeras fontes de conteúdo e funcionalidades – famosas ou não – poderão atuar em conjunto. Com esta mecânica, é possível oferecer um serviço ainda mais completo para o usuário final. Assim, a tendência é que haja, como já vem ocorrendo, uma estimulação à criação e distribuição de conteúdo digital. Este fenômeno faz com que descentralize-se a importância de um único gerador de informação, distribuindo para toda a massa de usuários a responsabilidade de produzi-lo. Espera-se que a informação trafegue livremente, podendo ser usada e aplicada de qualquer modo, em qualquer lugar.
Apesar de todos os devaneios, projeções e afins, a web 2.0 já existe e pode ser vista atualmente no dia-a-dia da rede. Ela não é visualmente tão identificável, mas tem um jeito de ser muito próprio, aberto e democrático. Alguns conceitos e tecnologias dão uma pista sobre como ela é: como blogs, sites com tecnologia wiki – onde usuários publicam e editam todo o tipo de conteúdo e tem na Wikipédia (www.wikipedia.org) seu melhor exemplo -, podcasts, feeds de notícias (RSS), bem como serviços como o próprio Orkut, destinados ao desenvolvimento de redes sociais. Os sites e serviços dessa nova etapa da internet têm o que tem sido chamado de ‘arquitetura da participação’, que engloba justamente os elementos que incentivam o colaborativismo.
Sua versão anterior, que, naturalmente, pode ser chamada de web 1.0, consistia num conjunto páginas estáticas em HTML. Sofre críticas por ter sido desenhada de forma engessada com o princípio de ‘home-pages’, onde não faltavam serviços intrusivos e dificuldades (barreiras) para acessar o conteúdo de um site. Houve quem identificasse ainda uma outra versão intermediária denominada de web 1.5, que trazia páginas mais dinâmicas, ligadas a bancos de dados de conteúdo. De uma forma ou de outra, fazem parte de um passado que não deixou grandes saudades. Ficam apenas como referência.
Apesar de um pouco intuitivo, agora há o consenso de que o valor de um serviço está em seus usuários, no banco de dados que eles formam e não propriamente no aplicativo utilizado. Outro ponto que já vem sendo falado, mas que, ainda assim, merece destaque é a preocupação de oferecer serviços que sejam acessíveis não somente via computador, mas através de dispositivos móveis. Assim, a recomendação da web 2.0 é que haja o desenvolvimento de aplicações já prevendo sua integração com outros meios.
Outra inovação bem peculiar veio com a gentonomia (folksonomia ou taxonomia popular). O termo original (‘folksonomy’), em inglês, vem da junção de duas palavras: ‘folks’ (povo, gente) e ‘taxonomy (taxonomia). Criada pelo arquiteto de informação Thomas Vander Wal (http://www.vanderwal.net), a gentonomia, então, consiste na classificação popular de um conteúdo qualquer – texto, imagem, áudio, vídeo ou o que for. O Flickr (http://www.flickr.com), site para armazenamento e compartilhamento de fotos, é um bom exemplo. Quando um usuário coloca uma foto no ar, ele pode atribuir palavras-chave (conhecidas como ‘tags’) a ela. Qualquer visitante também pode fazer o mesmo. O sistema do site compila o que foi inserido e apresenta uma relação de palavras que tem pertinência àquela imagem. O resultado pode ser exibido como um simples ranking textual ou pelo Folksonomic Zeitgest. Apesar do nome assustador, trata-se apenas de uma forma visual de expor a classificação. Ele aparece sob a forma de um quadrado com as palavras com o corpo da fonte em tamanhos variáveis, de acordo com seu número de votos. Quanto maior for a palavra, mais representativa ela é. Assim, é possível navegar pelos rankings, pelo Folksonomic Zeitgest ou fazer uma busca com o que vier à cabeça, já que tudo já estará classificado pelos usuários.
Por fim, o editor da Wired (http://www.wired.com), Chris Anderson, publicou um artigo um tanto quanto revelador acerca da importância dos mercados de nicho, mais precisamente dos sites pequenos. Ele explica que eles têm uma representatividade igual ou superior aos poucos endereços que, sozinhos, arrebanham uma audiência absurda – como os grandes portais. A teoria foi batizada de ‘The Long Tail’ (http://www.wired.com/wired/archive/12.10/tail.html), e será alvo de uma coluna específica aqui.
Filosofias e premissas não faltam na missão de fazer uma internet mais orgânica. Como sempre, somente o tempo dirá se tais bases serão seguidas e postas em prática. Mesmo que nada saia como o planejado, a idéia da web 2.0 já deu certo só por ter instigado o debate sobre como a internet deveria ser.’
Pedro Doria
‘Começa a ser possível viver de blogs’, copyright O Estado de S. Paulo, 21/11/05
‘BoingBoing.net é o número um do ranking de blogs segundo o site Technorati. Como blogs são muitos e aferir a visitação de cada um não é possível, o critério desta lista é contar que blogs recebem mais links de outros blogs. O mais citado talvez não seja o mais lido mas tende a ser o mais respeitado. Segundo um estudo de Stephen Baker, blogueiro da Business Week, os blogs mais quentes dos EUA fazem uma média de US$ 25 mil por mês vendendo anúncios.
Não é mau levando em conta que, para manter um site desses no ar, não é preciso muito mais que um time de duas ou três pessoas. Como a parte técnica é freqüentemente terceirizada e os impostos, um bocado leves, o salário final para o dono o coloca firmemente na classe média alta norte-americana e a caminho de enriquecer. Isso não quer dizer que exista uma forma clara para cultivar um blog de sucesso.
Existem duas escolas. Uma é a promovida por Nick Denton, um correspondente veterano do diário inglês Financial Times. Ele deixou o Times para construir um pequeno império de blogs que seguem, mais ou menos, a pauta dos tablóides populares. Um, portanto, é sobre fofocas nova-iorquinas, outro sobre as de Washington e há um dedicado a celebridades. Denton tem também blogs sobre sexo, destinações turísticas e, o mais popular, Gizmodo.com, quinto no ranking, dedicado a gadgets, maquininhas eletrônicas diversas.
Seu modelo é simples. Aposta num tema geral que atraia leitores, contrata um jovem que escreva bem e atualiza, atualiza muito e o dia inteiro. O conteúdo quem oferece é a própria internet: a graça de seus blogs é que eles editam a rede, listam quase tudo o que circula sobre um assunto, e o leitor visita sempre porque encontrará o noticiário concentrado num lugar só.
O outro modelo é o dos blogs políticos que nasceram na cobertura da Guerra do Iraque e maturaram durante as eleições presidenciais de 2003. Markos Moulitsas, editor do DailyKos (número 4 no ranking da Technorati), é quem descreve melhor a fórmula. O tema precisa ser apaixonante. Um partido político, por exemplo, ou um time de futebol. A idéia é que reúna leitores emocionalmente envolvidos, que passem horas discutindo.
Esses blogs, portanto, são comunidades, e a área de comentários é destacada. Se os leitores retornam e retornam, não é apenas para descobrir que novidade Moulitsas escreveu sobre os democratas ou contra Bush – é, principalmente, para participar das discussões envolvendo outros leitores. No DailyKos, os participantes mais ativos mantêm sub-blogs particulares.
Naturalmente, ambos os modelos apostam em nichos. Denton promove o que bem poderia ser chamado, na imprensa tradicional, de sensacionalismo. E dificilmente poderia se dizer de Moulitsas que ele é imparcial. BoingBoing, o campeão, é diferente de ambos. É, numa tradução de seu lema, ‘um diretório de coisas maravilhosas’. Lista curiosidades pescadas na rede em áreas que mais ou menos interessam a geeks, o tipo que gosta de tecnologia, Senhor dos Anéis e usa muito a internet. Nicho, portanto.
Então blogs, no início de sua profissionalização, são veículos de nicho, desde que no nicho exista gente o bastante. Por enquanto, não devem passar de 20 os blogueiros que vivem, e bem, de fazer blogs e apenas. Mas eles já existem e têm lá suas teorias para explicar como funciona. No Brasil é um pouco diferente. Há uma meia dúzia que recebe salário para publicar blogs – inclua-se aí o colunista -, mas os blogs profissionais brasileiros ainda não são negócios auto-sustentáveis.
Um dos motivos vem do nascimento da internet brasileira, no tempo da linha discada. Como não havia conteúdo em português na rede, empresas de telecomunicações e de mídia montaram grandes portais para se firmar no território e motivar o público a usar o telefone. A cultura dos portais fechados é pouco permeável a sites independentes, e os anunciantes são ainda mais desconfiados. Não quer dizer que isto ficará assim para sempre: um blog enxuto pode produzir muito mais com muito menos gente.
No fundo, já existe um exemplo no Brasil. É o Blue Bus (www.bluebus.com.br). Os donos negam que seja um blog, mas é. Vive tocado a quatro mãos pelo casal Júlio Hungria e Elisa Araújo, é dedicado ao público publicitário, e está de pé, independente. Sustenta-se pela publicidade que vende.’
Carlos Alberto Teixeira
‘Habilitação para o mundo virtual’, copyright O Globo, 21/11/05
‘Será que existe jeito de você desfrutar das maravilhas da vida moderna sem abrir mão de sua privacidade? Vamos dar uma olhadela em volta. Num arroubo de fantasia, suponhamos que você não tenha computador em casa nem no escritório. Celular? Sim, pelo menos um celular você tem, imaginemos assim. Cada vez que você faz um chamado com seu telefone móvel ou envia um torpedo, é possível achar direitinho a posição da estação rádio-base mais próxima de onde você está. Cruzando este dado com coordenadas geográficas obtidas via GPS e triangulando os sinais emitidos pelo seu celular, é possível descobrir o local onde você se encontra com precisão de até cinco metros.
Em certos locais da cidade, todos os seus movimentos podem estar sendo monitorados por câmeras de vigilância. Se você entra numa loja e paga com cartão de crédito, sua localização também fica sendo conhecida. O mesmo se dá quando você vai a um caixa eletrônico de banco sacar uns trocados.
Vamos agora cair na real e considerar que você tem máquina em casa e/ou no escritório, todas penduradas na internet. Cada vez que você envia um email, entra num site de bate-papo, usa uma ferramenta de busca, faz uma comprinha besta ou passeia pela web, vai deixando rastros. Se você, como eu, se meteu nas arapucas megalomaníacas do Google – tipo Orkut, Gmail, Googlegroups ou Google Toolbar – sua vida conectada está sendo minuciosamente registrada. Os cookies que os diversos sites vão deixando no seu computador acompanham os seus passos e o seu provedor internet sabe perfeitamente quem você é, conhecendo também dados pessoais, profissionais e hábitos de navegação. Se você tem página web própria, escreve ou comenta em blogs ou participa de listas e grupos de discussão, então suas andanças na rede são bem mais fáceis de seguir.
Cada vez que você preenche seus dados num site, num formulário comum ou numa pesquisa, suas informações passam a fazer parte de um banco de dados. Claro que muitas empresas ou instituições que recebem estas informações têm políticas de privacidade. Mas como confiar nelas? Quantas vezes você informou seu email num formulariozinho numa lojinha e misteriosamente começou a receber mais spam do que já recebia?
A partir do momento que as campanhas publicitárias passaram da propaganda em massa para os anúncios personalizados, cresceu imensamente o valor das informações particulares do cidadão. Fora isso, roubos de identidade têm sido cada vez mais comuns. Até os governos estão futucando mais na privacidade da gente, com o argumento de estarem nos protegendo de ameaças.
A maneira mais eficiente de fugir desta gigantesca invasão global de privacidade seria abdicar do uso de qualquer facilidade moderna que envolvesse armazenamento e recuperação de informações. Mas aí também seria loucura. A leitora estaria disposta a pagar este preço?
Acho que não. Mas quem deseja continuar na vida modernosa, mas preservando sua privacidade, precisará se preocupar com um monte de detalhezinhos chatos. Em alguns casos terá mesmo que pagar por sua privacidade.
No caso do telefone, por exemplo, se quiser que seu número não conste na lista tem que pagar. Precisa pagar também caso queira que sua empresa telefônica não forneça a identificação do seu número quando você ligar para outra pessoa. Não vai demorar muito para que precisemos pagar também para resguardar nossos dados pessoais no mundo online.
No âmbito das soluções mais simples, você pode ter em casa uma firewall de verdade ou, como paliativo, um ‘personal firewall’. Pode rodar seu antivírus e uma meia dúzia de removedores de spyware. Pode também criptografar todos os arquivos no seu HD ou até comprar serviços de empresas que se dizem especialistas em remover dados particulares seus de máquinas de busca e bancos de dados variados. É possível também criptografar todas os emails que você envia, de modo que apenas os destinatários sejam capazes de lê-los. Ou então habituar-se a navegar na web apenas sob a proteção de um software anonimizador.
Acontece que o usuário comum não está nem aí para isso. Quer apenas usar a tecnologia para seu trabalho, sua diversão ou seus afazeres. No entanto, por desconhecer os riscos que corre, acaba se tornando presa fácil dos grandes mastigadores de dados. Quanto aos novatos, pobrezinhos deles, dá até pena. É quase cruel permitir que gente fascinada mas totalmente inexperiente se jogue de cabeça nas malhas do mundo digital.
Haveria algum jeito de proteger o cidadão comum? Há quem proponha uma carteira de habilitação para o mundo virtual: se para trafegar nos logradouros públicos um motorista precisa comprovar que está apto e que conhece os conceitos de segurança, poderia haver algo semelhante na internet. Só estaria autorizado a sair navegando e mandar email quem passasse numa prova de conhecimentos básicos. Quem fosse aprovado receberia um carteirinha ou um certificado digital e, só então, poderia abrir conta num provedor. Será que ainda veremos algo assim acontecer? Santa chatice.’
Douglas McMillan e Rachel Bertol
‘Tigres de papel’, copyright O Globo, 19/11/05
‘O que vem acontecendo nas últimas semanas na internet faz pensar. Até recentemente, a idéia de que ela engoliria a imprensa e os livros era um senso comum muito repetido, pouco questionado e menos ainda fundamentado. Mas hoje, assistindo à briga de cachorros enormes do setor gastando milhões de dólares para pôr livros de uma forma ou de outra na rede, pode-se dizer com certeza: o futuro do mundo virtual está no papel impresso. Pelo menos até a semana que vem.
Google, a mais completa ferramenta de busca na internet; Amazon, a maior livraria digital; e uma parceria-monstro entre Microsoft e Yahoo! travam uma luta encarniçada entre si e com autores e editoras para pôr as maiores bibliotecas do mundo ao alcance do teclado. O tema é especialmente urgente nesse momento, quando 176 países acabam de se reunir na Cúpula Mundial sobre a Sociedade da Informação, realizada na Tunísia, para discutir como a internet pode se tornar menos comercial e mais democrática e educativa.
O Google Print (print.google.com), já em funcionamento, pretende digitalizar em seus primeiros dez anos 15 milhões de livros das bibliotecas das universidades de Oxford, Harvard, Stanford e Michigan, além da biblioteca pública de Nova York. Tudo por US$ 200 milhões. Já a Amazon anunciou para o começo de 2006 dois serviços, o Pages e o Upgrade. Com o primeiro será possível comprar capítulos ou mesmo páginas individuais de livros. Com o segundo, compra-se o livro físico e sua versão digital. Por fim, Microsoft, Yahoo! e Internet Archive anunciaram o início de uma parceria para digitalizar dezenas de bibliotecas acadêmicas como as das universidades de Columbia, Johns Hopkins, Califórnia e Toronto, além dos acervos do Museu Histórico de Londres e Instituto Smithsonian, entre outros. O nome da iniciativa é OCA, Open Content Alliance (Aliança para o Conteúdo Aberto). Apenas a empresa de Bill Gates deve investir US$ 2,5 milhões. Para se ter uma idéia da magnitude das empreitadas, o Projeto Gutenberg digitalizou em dez anos apenas 17 mil títulos.
Números à parte, cada empreitada tem um lado polêmico. A Google, por exemplo, já foi processada tanto pela Associação de Editores dos EUA quanto pela dos escritores. A acusação: violação em massa de direitos autorais. No site, somente é possível – seguindo as regras – visualizar na tela em torno de um quinto de um livro, mesmo aqueles que ainda não estão em domínio público, mas não imprimir ou salvar. A empresa compara isso a uma folheada num exemplar interessante em uma livraria. Não é difícil, contudo – utilizando o próprio mecanismo de busca da empresa – encontrar na internet diversas formas de driblar as barreiras do sistema para, sim, conseguir imprimir e salvar qualquer livro digitalizado. Uma mostra de como a informação na internet é indomável.
– As barreiras da Google são ridículas – afirma Jorge Lopes de Souza Leão, engenheiro da UFRJ que acaba de desenvolver um software para catalogação de bibliotecas. – Qualquer hacker de meia tigela imprime e salva o que quiser no Google Print.
Polêmica com a Google mostralimites do direito autoral
A Google foi processada basicamente por proceder com os livros da mesma forma como catalogou bilhões de páginas na internet: tornando acessível informação sobre alguma coisa, e não a coisa em si. Mas, quando se trata de livros, essa é obviamente uma linha tênue: a imagem de cinco páginas de um conto de cinco páginas é o próprio conto. Apesar de a empresa retirar de seu índice qualquer autor que assim o queira e de disponibilizar links para bibliotecas onde pode ser lido e livrarias onde pode ser comprado legalmente, escritores e editores estão irados.
– O copyright nunca funcionou assim, essa atitude irresponsável da Google abala uma das suas fundações. Não cabe aos escritores esquadrinhar a internet para saber quem está violando seus direitos – disse ao GLOBO, por telefone, de Nova York, Paul Aiken, diretor executivo da Authors Guild, poderosa associação dos escritores dos EUA e uma das autoras do processo contra a Google. – Esses livros não estão na internet e é por uma razão: sabemos que a rede é a maior máquina copiadora do mundo. Se está em formato digital, está em risco.
O que é risco para alguns é oportunidade para outros.
– Isso é uma antevisão do impacto que os meios digitais terão no mundo editorial. Não adianta ser contra a evolução. Nada do que é digitalizável vai ficar de fora e tudo o que puder ser transformado em informação vai ser revolucionado. No mundo do livro, ainda não se sentiu impacto tão grande, porque ele tem um fator cultural forte e hoje ainda não há formatos práticos para se ler online. Mas eles vão existir – afirma o professor da FGV André Kischinevsky, diretor do Instituto Infnet, um dos mais renomados do país na formação de profissionais na área de tecnologia.
Se a Google está apanhando por ter saído na frente e não ter consultado as editoras, Amazon e OCA, ainda que tenham ‘se comportado bem’, têm desafios à frente também.
Poucos duvidam do sucesso comercial dos dois serviços da Amazon, a exemplo do que aconteceu com o iTunes, da Apple, onde é possível fazer downloads legais, pagos, de música. Mas eles tornarão disponíveis milhões de livros em alta qualidade – o que provavelmente abrirá as portas para um nível de pirataria que a indústria editorial ainda não viu, comparável apenas ao que já acontece na música e no audiovisual. Já a crítica à OCA é mais filosófica: se a empresa seguir seu projeto inicial de escanear apenas textos em domínio público ou obras autorizadas pelos autores, a catalogação caminhará a passos lentos e o acervo seria muito mais pobre. No fundo, o que está em xeque é o conceito de copyright.’