Comico Tenso­

quinta-feira, 6 de setembro de 2007

Introdução


A Internet tem revolucionado o mundo dos computadores e das comunicações
como nenhuma invenção foi capaz de fazer antes. A invenção
do telégrafo, telefone, rádio e computador prepararam o terreno
para esta nunca antes havida integração de capacidades. A Internet
é, de uma vez e ao mesmo tempo, um mecanismo de disseminação
da informação e divulgação mundial e um meio para
colaboração e interação entre indivíduos e
seus computadores, independentemente de suas localizações geográficas.

A Internet representa um dos mais bem sucedidos exemplos dos benefícios
da manutenção do investimento e do compromisso com a pesquisa
e o desenvolvimento de uma infra-estrutura para a informação.
Começando com as primeiras pesquisas em trocas de pacotes, o governo,
a indústria e o meio acadêmico tem sido parceiros na evolução
e uso desta excitante nova tecnologia. Hoje, termos como nome@nomedeempresa.com
(ou nome@nomedeempresa.com.br, no caso do Brasil) e http://www.nomedeempresa.com
(ou http://www.nomedeempresa.com.br, no caso do Brasil) são usados diariamente
por milhões de pessoas.


Nesta análise, muitos de nós envolvidos com o desenvolvimento
e a evolução da Internet dão suas visões sobre as
origens e a história da Internet. A história envolve quatro aspectos
distintos:


* a evolução tecnológica que começou com as primeiras
pesquisas sobre trocas de pacotes e a ARPANET e suas tecnologias, e onde pesquisa
atual continua a expandir os horizontes da infra-estrutura em várias
dimensões como escala, desempenho e funcionalidade de mais alto nível;


* os aspectos operacionais e gerenciais de uma infra-estrutura operacional complexa
e global;

* o aspecto social que resultou numa larga comunidade de internautas trabalhando
juntos para criar e evoluir com a tecnologia;

* e o aspecto de comercialização que resulta numa transição
extremamente efetiva da pesquisa numa infra-estrutura de informação
disponível e utilizável.


A Internet hoje é uma larga infra-estrutura de informação,
o protótipo inicial do que é frequentemente chamado a Infra-Estrutura
Global ou Galáxica da Informação. A história da
Internet é complexa e envolve muitos aspectos - tecnológicos,
organizacionais e comunitários. E sua influência atinge não
somente os campos técnicos das comunicações via computadores
mas toda a sociedade, na medida em que usamos cada vez mais ferramentas online
para fazer comércio eletrônico, adquirir informação
e operar em comunidade.


A origem da Internet



Os primeiros registros de interações sociais que poderiam ser
realizadas através de redes foi uma série de memorandos escritos
por J.C.R. Licklider, do MIT - Massachussets Institute of Technology, em agosto
de 1962, discutindo o conceito da "Rede Galáxica". Ele previa
vários computadores interconectados globalmente, pelo meio dos quais
todos poderiam acessar dados e programas de qualquer local rapidamente. Em essência,
o conceito foi muito parecido com a Internet de hoje. Licklider foi o primeiro
gerente do programa de pesquisa de computador do DARPA, começando em
outubro de 1962. Enquanto trabalhando neste projeto, ele convenceu seus sucessores
Ivan Sutherland, Bob Taylor e Lawrence G. Roberts da importância do conceito
de redes computadorizadas.



Leonard Kleinrock, do MIT, publicou o primeiro trabalho sobre a teoria de trocas
de pacotes em julho de 1961 e o primeiro livro sobre o assunto em 1964. Kleinrock
convenceu Roberts da possibilidade teórica das comunicações
usando pacotes ao invés de circuitos, o que representou um grande passo
para tornar possíveis as redes de computadores. O outro grande passo
foi fazer os computadores se conversarem. Em 1965, Roberts e Thomas Merrill
conectaram um computador TX-2 em Massachussets com um Q-32 na California com
uma linha discada de baixa velocidade, criando assim o primeiro computador de
rede do mundo. O resultado deste experimento foi a comprovação
de que computadores poderiam trabalhar bem juntos, rodando programas e recuperando
dados quando necessário em máquinas remotas, mas que o circuito
do sistema telefônico era totalmente inadequado para o intento. Foi confirmada
assim a convicção de Kleinrock sobre a necessidade de trocas de
pacotes.


No final de 1966, Roberts começou a trabalhar no DARPA para desenvolver
o conceito das redes computadorizadas e elaborou o seu plano para a ARPANET,
publicado em 1967. Na conferência onde ele apresentou este trabalho, houve
também uma apresentação sobre o conceito de redes de pacotes
desenvolvida pelos ingleses Donald Davies e Roger Scantlebury, da NPL-Nuclear
Physics Laboratory. Scantlebury conversou com Roberts sobre o trabalho da NPL
e do trabalho de Paul Baran e outros em RAND. O grupo do projeto RAND tinha
escrito um trabalho sobre o papel das redes de trocas de pacotes para voz segura
quando serviam militarmente em 1964. O que se percebeu então é
que os trabalhos desenvolvidos no MIT (1961-67), RAND (1962-65) e NPL (1964-67)
estavam se desenrolando em paralelo sem que nenhum dos pesquisadores soubesse
dos outros trabalhos. A palavra "pacote" foi adotada do trabalho desenvolvido
no NPL e a velocidade de linha proposta para ser usada no projeto da ARPANET
foi upgraded de 2,4 Kb para 50 Kb.


Em agosto de 1968, depois de Roberts e o grupo do DARPA terem refinado a estrutura
e especificações para a ARPANET, uma seleção foi
feita para o desenvolvimento de um dos componentes-chave do projeto: o processador
de interface das mensagens (IMP). Um grupo dirigido por Frank Heart (Bolt Beranek)
e Newman (BBN) foi selecionado. Paralelamente ao trabalho do grupo da BBN nos
IMPs com Bob Kahn assumindo um papel vital do desenho arquitetônico da
ARPANET, a topologia e economia da rede foi desenvolvida e otimizada por Roberts
em conjunto com Howard Frank e seu grupo da Network Analysis Corporation, e
sistema de mensuração da rede foi preparado pelo pessoal de Kleinrock
na UCLA -University of California at Los Angeles.


Devido à teoria de trocas de pacotes de Kleinrock e seu foco em análise,
desenho e mensuração, seu Centro de Mensuração de
Rede da UCLA foi escolhido para ser o primeiro nó (ponta) da ARPANET.
Isso aconteceu em setembro de 1969, quando BBN instalou o primeiro IMP na UCLA
e o primeiro servidor de computador foi conectado. O projeto chamado Aumento
do Intelecto Humano, de Doug Engelbart, que incluía NLS (um precursor
dos sistemas de hipertexto), no SRI-Stanford Research Institute, foi o segundo
nó ou ponta. SRI passou a manter as tabelas de "Host Name"
para o mapeamento dos endereços e diretório do RFC. Um mês
depois, quando SRI foi conectado à ARPANET, a primeira mensagem entre
servidores foi enviada do laboratório de Kleinrock para o SRI. Dois outros
"nodes" foram acrescentados então: a UC Santa Barbara e a Universidade
de Utah. Este dois nós incorporavam projetos de aplicações
visuais, com Glen Culler e Burton Fried na UCSB investigando métodos
de uso de funções matemáticas para restaurar visualizações
na rede e Robert Taylor e Ivan Sutherland em Utah investigando métodos
de representação em terceira dimensão na rede. Assim, no
final de 1969, quatro servidores estavam conectados na ARPANET e, mesmo naquela
época, os trabalhos se concentravam tanto na rede em si como no estudo
das possíveis aplicações da rede. Esta tradição
continua até hoje.


Computadores foram rapidamente adicionados à ARPANET nos anos seguintes
e os grupos de trabalho desenvolveram um protocolo servidor a servidor funcionalmente
completo e outros softwares de rede. Em dezembro de 1971, o Network Working
Group (NWG) gerenciado por S. Crocker, concluiu o primeiro protocolo servidor
a servidor da ARPANET, chamado Network Control Protocol (NCP). De 1971 a 1972,
os usuários da rede finalmente puderam começar a desenvolver as
suas aplicações. Em outubro de 1972, Kahn organizou uma grande
e bem sucedida demonstração sobre a ARPANET na Conferência
Internacional de Comunicação entre Computadores (ICCC). Esta foi
a primeira demonstração pública da nova tecnologia de rede
para o público. Foi também em 1972 que o correio eletrônico,
considerado a primeira aplicação "hot", foi introduzido.
Em março de 1972, Ray Tomlinson, da BBN, escreveu o software básico
de e-mail com as funções de "send/enviar" e "read/ler",
motivado pela necessidade dos desenvolvedores da ARPANET de ter um fácil
mecanismo de coordenação. Em julho, Roberts expandiu a utilidade
do e-mail escrevendo o primeiro programa utilitário de e-mail para listar,
ler seletivamente, arquivar, encaminhar e responder a mensagens. Dali, o correio
eletrônico se tornou a maior aplicação de rede por mais
de uma década. Este foi o prenúncio do tipo de atividade que vemos
hoje na WWW hoje, ou seja, o enorme crescimento de todos os tipos de aplicações
e utilitários agregados pessoa-a-pessoa.


Os conceitos iniciais da Internet



A ARPANET original cresceu e se tornou a Internet. A Internet foi baseada na
idéia de que haveria múltiplas redes independentes de desenho
arbitrário, começando com a ARPANET como rede pioneira de trocas
de pacotes mas logo incluindo redes de satélites, de rádio, etc.
A Internet como conhecemos hoje incorpora uma idéia-chave: rede de arquitetura
aberta. Nesta abordagem, a opção pela tecnologia de qualquer rede
individual não é ditada por nenhuma arquitetura de rede particular
e sim escolhida livremente pelo provedor, que a torna capaz de entrar em rede
com outras redes pela "Arquitetura de Internetworking". Até
aquele período, havia apenas um método para agregar redes: a tradicional
troca de circuitos onde redes se interconectavam no nível do circuito,
passando bits individuais em base síncrona por um circuito ponta a ponta
entre duas localidades. Lembre que Kleinrock tinha mostrado em 1961 que troca
de pacotes era um método mais eficiente. Condições específicas
de interconexão entre redes era outra possibilidade. Enquanto havia outras
formas limitadas de interconectar redes, todas requeriam que uma fosse componente
da outra, ao invés de agirem como companheiras no oferecimento do serviço
ponta a ponta. Numa rede de arquitetura aberta, as redes individuais podem ser
separadamente desenhadas e desenvolvidas e cada uma pode ter sua interface própria
que pode ser oferecida a usuários e outros provedores. Cada rede pode
ser desenhada de acordo com o ambiente e os requerimentos dos seus usuários.
Não há restrições em relação aos tipos
de redes que podem ser incluídas numa área geográfica,
apesar de algumas considerações pragmáticas ditarem o que
é razoável oferecer.



A idéia de redes de arquitetura aberta foi primeiro introduzida por
Kahn em 1972. Este trabalho foi parte de um programa de pacotes de rádio,
mas depois se tornou um programa em separado. Naquele tempo, o programa foi
chamado "Internetting". NCP não tinha a habilidade de endereçar
redes e máquinas além da destinação IMP da ARPANET
e portanto deveria ser mudado. NCP se amparava na ARPANET para prover confiabilidade
de ponta a ponta. Se qualquer pacote fosse perdido, o protocolo e qualquer aplicação
que ele suportasse iria simplesmente parar a transferência de dados. Nesse
modelo, NCP não tinha controle de erro ponta a ponta, uma vez que pensava-se
que a ARPANET seria a única rede em existência e ela seria tão
confiável que nenhum controle de erro seria necessário por parte
dos servidores. Então Kahn decidiu desenvolver uma nova versão
do protocolo que iria satisfazer as necessidades de um ambiente de redes de
arquitetura aberta. Este protocolo iria eventualmente ser chamado Transmission
Control Protocol/Internet Protocol (TCP/IP). Enquanto NCP agia como um driver
de equipamento, o novo protocolo seria mais um protocolo de comunicações.


Quatro regras foram críticas para a idéia
de Kahn:


* cada rede distinta deveria ser independente e mudanças internas não
deveriam ser requisitadas para conectá-las à Internet;

* comunicações seriam na base do melhor esforço. Se um
pacote não chegasse à sua destinação final, ele
seria retransmitido da fonte;

* caixas pretas seriam usadas para conectar as redes. Mais tarde elas seriam
chamadas gateways e roteadores. Os gateways não reteriam informações
sobre os fluxos de pacotes passantes. Isso assegurou que eles se mantivessem
simples, evitando adaptações complicadas e recuperações
de erros;

* não haveria controle global no nível operacional.


Outros itens avaliados foram os seguintes:



* algorítmos para prevenir perda de pacote de comunicações
desabilitadas, capacitando-os a serem retransmitidos da fonte;

* provimento de "pipelining" de servidor a servidor, de forma que
múltiplos pacotes poderiam ser roteados da fonte ao destino à
vontade dos servidores participantes, se redes intermediárias o permitissem;

* funções de gateway (porta de entrada) para encaminhar os pacotes
apropriadamente. Isso incluiria cabeçalhos de IP para roteamento, interfaces
dirigidas, quebra de pacotes em pedaços menores (caso necessário),
etc;

* a necessidade de checagens ponta a ponta, recuperação dos pacotes
de fragmentos e detecção de duplicatas;

* a necessidade do endereçamento global;

* técnicas de controle de fluxo servidor a servidor;


* interfaces com vários sistemas operacionais;

* eficiência da implementação, performance entre as redes,
etc.


Kahn começou a trabalhar na série orientada às comunicações
dos princípios do sistema operacional enquanto na BBN, e documentou alguns
dos seus pensamentos num memorando interno chamado "Princípios de
Comunicações para Sistemas Operacionais". Neste ponto, ele
percebeu que seria necessário aprender os detalhes de implementação
de cada sistema operacional para ter a chance de embutir neles novos protocolos
de uma forma eficiente. Assim, na primavera de 1973, depois de começar
o projeto "internetting", Kahn chamou Vint Cerf (então trabalhando
em Stanford) para trabalhar com ele no desenho detalhado do protocolo. Cerf
tinha se envolvido intimamente com o desenho e desenvolvimento do NCP original
e já tinha o conhecimento em interfacing com os sistemas operacionais
existentes. A abordagem arquitetônica para a comunicação
de Kahn e a experiência em NCP de Cerf possibilitaram a construção
do que se tornou TCP/IP.


O trabalho de Kahn e Cerf foi altamente produtivo e a primeira versão
escrita da teoria resultante foi distribuída numa reunião especial
do International Network Working Group (INWG), que tinha sido definido numa
conferência da Sussex University em setembro de 1973. Cerf tinha sido
convidado para dirigir este grupo e usou a ocasião para realizar o encontro
do INWG. Algumas teses básicas surgiram da colaboração
entre Kahn e Cerf:


* comunicação entre dois processos deveria consistir logicamente
de uma longa corrente de bytes (que eles chamaram de octets). A posição
de qualquer octet na corrente seria usada para identificá-lo;

* o controle do fluxo seria feito usando janelas e corrediças e acks.
O destino poderia selecionar quando seria efetuado o reconhecimento e cada ack
retornado seria cumulativo para todos os pacotes recebidos;

* foi deixado em aberto como a fonte e o destino iriam concordar nos parâmetros
das janelas a serem usadas. Padrões foram usados inicialmente;


* apesar de a Ethernet (sistema de redes que transporta sinais (bits) para todos
os microcomputadores em rede) estar em desenvolvimento em Xerox PARC naquele
tempo, a proliferação de LANs (redes locais) não era prevista,
muito menos a proliferação de PCs (computadores pessoais) e estações
de trabalho. O modelo original foi redes nacionais como a ARPANET, que se pensava
não iriam existir muitas como ela. Então um IP de 32 bits foi
usado, dos quais os primeiros 8 bits indicavam a rede e os restantes 24 bits
designavam o servidor na rede. Esta hipótese de que 256 redes seriam
suficientes para o futuro próximo passou necessariamente a ser reconsiderada
quando LANs começaram a aparecer no final da década de 1970.


O trabalho original de Cerf e Kahn sobre a Internet descreveu um protocolo
chamado TCP, que provia todo o transporte e serviços de encaminhamento
na Internet. Kahn queria que o protocolo suportasse uma série de serviços
de transporte, desde a entrega sequenciada de dados totalmente confiável
(modelo de circuito virtual) até o serviço de datagram, onde a
aplicação fazia uso direto do serviço básico de
rede, o que poderia implicar em pacotes ocasionalmente perdidos, corrompidos
ou reordenados. Entretanto, o esforço inicial para implementar TCP resultou
numa versão que somente permitiu circuitos virtuais. O modelo funcionou
bem para transferência de arquivos e aplicações de logins
remotos, mas alguns dos trabalhos em aplicações avançadas
como pacotes de voz mostraram que, em alguns casos, a perda de pacotes deveria
ser corrigida pela aplicação e não pelo protocolo TCP.
Isso levou a uma reorganização do TCP original em dois protocolos:
o simples IP que provia apenas o endereçamento e o roteamento dos pacotes
individuais e o TCP em separado, que se preocupava com o controle do fluxo e
a recuperação de pacotes perdidos. Para as aplicações
que não queriam os serviços de TCP, uma alternativa chamada User
Datagram Protocol (UDP) foi adicionada para prover acesso direto ao serviço
básico de IP.


Uma grande motivação inicial para a ARPANET e para a Internet
foi o compartilhamento de recursos. A conexão das duas redes foi muito
mais econômica do que a duplicação de caros computadores.
Entretanto, enquanto a transferência de arquivos e o login remoto (Telnet)
foram aplicações muito importantes, o correio eletrônico
teve o impacto mais significativo das inovações daquela época.
O correio eletrônico ou e-mail criou um novo modelo no qual as pessoas
poderiam se comunicar e mudou a natureza da colaboração, primeiro
na construção da própria Internet e mais tarde na sua utilização
por grande parte da sociedade.


Outras aplicações foram propostas nos dias iniciais da Internet,
incluindo comunicação de voz (precursora da telefonia via Internet),
vários modelos de compartilhamento de arquivos e discos, e os primeiros
programas que mostraram o conceito de agentes (e vírus..). Um conceito-chave
da Internet é que ela não é desenhada para apenas uma aplicação,
mas é uma infra-estrutura genérica na qual novas aplicações
podem ser concebidas, como aconteceu com a World Wide Web. Foi e é a
natureza do serviço provido pelos protocolos TCP e IP que tornam isso
possível.


O teste das idéias



DARPA fez três contratos para Stanford (Cerf), BBN (Ray Tomlinson) e UCL
(Peter Kirstein) implementarem TCP/IP (que foi simplesmente chamado TCP no trabalho
de Cerf/Kahn, mas que continha ambos os componentes). A equipe de Stanford,
liderada por Cerf, produziu uma detalhada especificação e, em
um ano, haviam três implementações independentes de TCP
que poderiam operar em conjunto. Este foi o começo de longa experimentação
e desenvolvimento a fim de evoluir e amadurecer os conceitos e a tecnologia
da Internet. Começando com as três primeiras redes (ARPANET, Packet
Radio e Packet Satellite) e suas comunidades iniciais de pesquisa, o ambiente
experimental cresceu para incorporar essencialmente qualquer forma de rede e
grande comunidade de pesquisa e desenvolvimento. E, com cada expansão,
novos desafios surgiram.


As primeiras implementações de TCP foram feitas por sistemas
como Tenex e TOPS 20. Quando os microcomputadores apareceram, alguns acharam
que TCP foi grande e complexo demais para rodar neles. David Clark e seu grupo
de pesquisa no MIT trabalharam para mostrar que poderia haver uma simples e
compacta implementação de TCP. Eles produziram esta implementação,
primeiro para o Xerox Alto (a primeira estação de trabalho pessoal
desenvolvida em Xerox PARC) e depois para o IBM PC. Esta implementação
foi completamente inter-operável com outros TCPs, mas foi feita sob medida
para microcomputadores, e mostrou que estações de trabalho, tanto
quanto sistemas de grande porte, poderiam tornar-se parte da Internet. Em 1976,
Kleinrck publicou o primeiro livro sobre ARPANET, com ênfase na complexidade
dos protocolos e nas dificuldades que eles introduzem. Este livro foi importante
na divulgação da crença nas redes com trocas de pacotes
para uma grande comunidade.



O desenvolvimento generalizado de LANs, PCs e estações de trabalho
na década de 80 permitiu a prosperidade da Internet que nascia. A tecnologia
Ethernet, desenvolvida por Bob Metcalfe em 1973 na Xerox PARC é agora
provavelmente a tecnologia de rede dominante na Internet e os PCs e estações
de trabalho são os computadores dominantes. A mudança entre poucas
redes com pequeno número de servidores (o modelo original ARPANET) e
muitas redes resultou num número de novos conceitos e mudanças
na tecnologia básica. Primeiro, isso resultou na definição
de três classes de rede (A, B e C) para acomodar o alcance das redes.
A classe A passou a representar redes de grande escala nacional (pequeno número
de redes com grande número de servidores). A classe B passou a representar
redes de escala regional. E a classe C passou a representar redes locais (grande
número de redes com relativamente poucos servidores).


Uma grande mudança ocorreu como resultado do aumento da escala da Internet
e os assuntos gerenciais associados. Para facilitar o uso da rede, nomes foram
atribuídos a servidores para que não fosse necessário lembrar
endereços numéricos. Originalmente, o número de servidores
foi limitado e, portanto, foi possível manter uma tabela única
de todos os servidores e seus nomes e endereços. A mudança para
o grande número de redes independentemente gerenciadas (por exempo, LANs)
significou o fim da tabela única de servidores, e o Domain Name System
(DNS) foi inventado por Paul Mockapetris, da USC/ISI. O DNS permitiu um mecanismo
escalarmente distribuído para resolver nomes de servidores hierárquicos
(por exemplo, www.acm.org) num endereço Internet.


O crescimento da Internet também desafiou a capacidade dos roteamentos.
Originalmente existiu um único algorítmo distribuído para
roteamento que foi implementado uniformemente por todos os roteadores na Internet.
Quando explodiu o número de redes na Internet e o desenho inicial de
roteamento não expandiu o suficiente, este foi substituído por
um modelo hierárquico de roteamento com um Interior Gateway Protocol
(IGP) usado dentro de cada região da Internet e um Exterior Gateway Project
(EGP) usado para ligar as regiões. Este desenho permitiu que diferentes
regiões usassem diferentes IGPs, de forma que diferentes requerimentos
de custo, rápida configuração, robustez e escala pudessem
ser acomodados. Não apenas o algorítmo de roteamento mas também
o tamanho das tabelas de endereçamento acentuaram a capacidade dos roteamentos.
Novas abordagens para agregação de endereço, em particular
roteamento entre domínios sem classe (CIDR) foram introduzidas para controlar
o tamanho das tabelas de roteamento. Um dos maiores desafios foi como propagar
as mudanças para o software, particularmente o software do servidor.
DARPA dava suporte à UC Berkeley para investigar modificações
para o sistema operacional Unix, inclusive incorporando o TCP/IP desenvolvido
em BBN. Apesar de Berkeley ter mais tarde reescrito o código para torná-lo
mais adequado ao sistema Unix, a incorporação do TCP/IP no Unix
BSD foi crítica para a dispersão dos protocolos na comunidade
de pesquisa. Muitos da comunidade de pesquisa da ciência da computação
já haviam começado a usar Unix BSD no seu dia-a-dia e a estratégia
de incorporar protocolos Internet no sistema operacional da comunidade de pesquisa
foi um dos elementos-chave do larga e bem-sucedida adoção da Internet.


Um dos mais interessantes desafios foi a transição do protocolo
de servidor da ARPANET de NCP para TCP/IP em 01/01/1983. Foi uma transição
imediata, requisitando todos os servidores em conversão simultânea
(ou então passariam a se comunicar via mecanismos específicos).
A transição foi cuidadosamente planejada pela comunidade por anos
antes e foi muito fácil no dia em que realmente aconteceu (mas teve como
consequência a distribuição de "buttons" dizendo
"Eu sobrevivi à transição para o TCP/IP").


O protocolo TCP/IP tinha sido adotado como padrão de defesa três
anos antes, em 1980. Tal fato levou diretamente à eventual divisão
entre comunidades militar e não militar. Em 1983, ARPANET estava sendo
usada por um número significante de organizações de pesquisa
e desenvolvimento e de operações da defesa. A transição
da ARPANET do protocolo NCP para o protocolo TCP/IP permitiu a divisão
entre a MILNET, que passou a suportar os requisitos operacionais, e a ARPANET,
que passou a suportar as necessidades de pesquisa.


Portanto, em 1985, a Internet já estava bem estabelecida como uma larga
comunidade de suporte de pesquisadores e desenvolvedores e começava a
ser usada por outras comunidades para comunicações diárias
pelo computador. O correio eletrônico já estava sendo usado por
muitas comunidades, frequentemente com sistemas diferentes, mas a interconexão
entre os diferentes sistemas de de correio foi demonstrando a utilidade de comunicação
eletrônica entre as pessoas.


A transição para a infra-estrutura
aberta




Ao mesmo tempo em que a tecnologia Internet estava sendo experimentalmente validada
e largamente utilizada por um conjunto de pesquisadores da ciência da
computação, outras redes e tecnologias de rede estavam sendo criadas.
A utilidade das redes computadorizadas - especialmente o correio eletrônico
- demonstrada por DARPA e pelo Departamento de Defesa dos Estados Unidos não
foi perdida em outras comunidades e disciplinas, e, ainda na década de
1970, redes começaram a aparecer em qualquer lugar que dispusesse de
fundos e recursos para isso. O Departamento de Energia dos Estados Unidos estabaleceu
a MFENet para seus pesquisadores em energia de fusão magnética
e a HEPNet para o grupo de física de alta energia. Os físicos
espaciais da NASA seguiram com a SPAN, e Rick Adrion, David Farber, and Larry
Landweber estabeleceram a CSNET para a comunidade acadêmica e industrial
da Ciência da Computação com um subsídio inicial
da NSF-National Science Foundation. A livre disseminação do sistema
operacional Unix na AT&T resultou na USENET, baseada no protocolo de comunicação
UUCP incluído no Unix, e, em 1981, Ira Fuchs e Greydon Freeman projetaram
a BITNET, que ligou os computadores acadêmicos num paradigma do tipo "correio
eletrônico como imagens de cartão".



Com a exceção da BITNET e da USENET, estas primeiras redes (incluindo
ARPANET) tinham sido construídas para um objetivo específico,
isto é, elas foram criadas para, e largamente restritas a, comunidades
fechadas de acadêmicos. Havia pouca pressão para que as redes individuais
fossem compatíveis e, na verdade, elas não eram. Mais ainda, tecnologias
alternativas estavam sendo procuradas pelo segmento comercial, incluindo XNS
da Xerox, DECNet e SNA da IBM. Restou à inglesa JANET (1984) e à
U.S. NSFNET (1985) programas para explicitamente anunciar seus intentos de servirem
à comunidade educacional, não importando a disciplina. Mais, a
condição para universidades americanas receberem fundos do NSF
era que "a conexão deveria estar disponível para todos os
usuários qualificados no campus".


Em 1985, Dennis Jennings, da Irlanda, passou um ano na NSF liderando o programa
da NSFNET. Ele trabalhou com a comunidade para ajudar a NSF a tomar uma decisão
crítica: que TCP/IP iria ser mandatório para o programa da NSFNET.
Quando Steve Wolff chegou à NSFNET em 1986, ele reconheceu a necessidade
por uma infraestrutura de rede maior para suportar as comunidades acadêmicas
e de pesquisa, além da necessidade de desenvolver uma estratégia
para estabelecer esta infra-estrutura independentemente dos recursos federais.
Políticas e estratégias foram adotadas para atingir este fim.


NSF também decidiu suportar a infra-estrutura organizacional da Internet
da DARPA já existente, hierarquicamente arranjada pelo então Internet
Activities Board (IAB). A declaração pública desta opção
foi a autoria conjunta pelo grupo de Engenharia e Arquitetura da Internet da
IAB e pelo grupo de Assessoria Técnica de Rede da NSF do RFC 985 - Requirements
for Internet Gateways, que formalmente assegurou a interoperabilidade entre
DARPA e NSF.


Em adição à seleção do TCP/IP para o NSFNET,
agências federais norte-americanas fizeram e implementaram várias
outras decisões políticas que definiram a Internet de hoje, como
segue:


* Agências federais norte-americanas dividiram o custo da infra-estrutura,
como os circuitos transoceânicos. Elas também apoiaram os pontos
de interconexão para o tráfego entre agências. Federal Internet
Exchanges (FIX-E e FIX-W) construídas com este objetivo serviram como
modelos para os pontos de acesso da rede e facilidades "*IX" que são
características proeminentes da arquitetura Internet de hoje;

* Para coordenar esta participação, foi formado o Federal Networking
Council (Conselho Federal de Redes). The FNC cooperou com organizações
internacionais como o RARE na Europa, através do Comitê de Pesquisa
Intercontinental, para coordenar o apoio da comunidade mundial de pesquisa à
Internet;

* Esta participação e cooperação entre agências
em assuntos relacionados à Internet tem uma longa história. Um
acordo sem precedentes realizado em 1981 entre Farber, representando a CSNET
e a NSF, e Kahn, representando a DARPA, permitiu à CSNET compartilhar
a infra-estrutura da ARPANET numa base estatística;


* Similarmente, a NSF encorajou redes regionais (inicialmente acadêmicas)
da NSFNET a buscar clientes comerciais, expandir seus estabelecimentos para
serví-los e explorar as resultantes economias de escala para baixar os
custos de subscrição para todos;

* No backbone da NSFNET, o segmento de escala nacional da NSFNET, NSF fez cumprir
uma política (Acceptable Use Policy - AUP) que proibiu o uso do backbone
para objetivos que não fosssem de suporte à Pesquisa e à
Educação. O resultado predizível e desejado do encorajamento
de tráfego comercial nos níveis local e regional, enquando proibindo
seu acesso ao backbone nacional, foi estimular a emergência e o crescimento
de redes privadas e competitivas (como PSI, UUNET, ANS CO+RE e outras mais tarde).
Este processo de aumento de redes privadas e auto-financiadas para usos comerciais
foi iniciado em 1988 numa série de conferências promovidas pela
NSF em Harvard's Kennedy School of Government sob o título "A Comercialização
e Privatização da Internet" e na lista "com-priv"
da rede;

* Em 1988, o comitê do Conselho Nacional de Pesquisa norte-americano,
dirigido por Kleinrock e com Kahn e Clark como membros, produziu um relatório
autorizado pela NSF entitulado "Em Direção a uma Rede Nacional
de Pesquisa". Este relatório influenciou o então Senador
Al Gore e anunciou as redes de alta velocidade que se tornariam a fundação
para a superhighway da informação do futuro;

* Em 1994, o comitê do Conselho Nacional de Pesquisa norte-americano,
novamente dirigido por Kleinrock e novamente com Kahn e Clark como membros,
produziu um novo relatório autorizado pela NSF entitulado "Fazendo
Idéia do Futuro da Informação: a Internet e Além".
Neste documento, a superhighway da informação foi articulada e
tópicos críticos como direitos da pripriedade intelectual, ética,
preços, educação, arquitetura e regulamentação
da Internet foram discutidos;

* A política de privatização da NSF culminou em abril de
1995, com o fim do subsídio ao backbone da NSFNET. Os fundos recuperados
foram competitivamente redistribuídos para redes regionais para compra
de conectividade nacional das agora numerosas redes privadas.


O backbone fez a transição entre a rede construída de
roteadores da comunidade de pesquisa para equipamentos comerciais. Em seus oito
anos e meio, o backbone cresceu de seis nodes com links de 56 Kb para 21 nodes
com múltiplos links de 45 Mb. A Internet cresceu para mais de 50 mil
redes em todos os sete continentes, com aproximadamente 29 mil redes apenas
nos Estados Unidos.



Tal foi o peso do ecumenismo e dos recursos da NSFNET (US$ 200 milhões
entre 1986 e 1995) e a qualidade dos protocolos, que em 1990, quando a ARPANET
foi desautorizada, TCP/IP tinha suplantado e marginalizado os demais protocolos
de rede, e IP estava também se tornando o serviço de sustentação
da infra-estrutura da informação global.


O papel da documentação



A chave para o rápido crescimento da Internet tem sido o livre e aberto
acesso aos documentos básicos, especialmente as especificações
dos protocolos.


Os inícios da ARPANET e da Internet na comunidade acadêmica de
pesquisa promoveu a tradição acadêmica de publicação
de idéias e resultados. Entretanto, o ciclo normal da publicação
acadêmica tradicional era formal e devagar demais para a dinâmica
troca de idéias na criação das redes. Em 1969, um passo
importante foi tomado por S. Crocker, então na UCLA, estabelecendo série
de notas relativas a "Request for Comments" (RFC, ou, traduzindo,
Solicitação de Comentários). Estas notas ou memorandos
seriam uma forma rápida de distribuição de observações
no compartilhamento de idéias com outros pesquisadores. A princípio,
os RFCs eram impressos e distribuídos pelo correio tradicional. Quando
o File Transfer Protocol (FTP, significando protocolo de transferência
de arqruivos) começou a ser usado, os RFCs se tornaram arquivos online
acessados via FTP. Agora, claro, os RFCs são facilmente acessados via
web em dezenas de sites no mundo. O SRI- Stanford Research Institute, no papel
de Centro de Informação de Redes, manteve os diretórios
online. Jon Postel atua até hoje como editor dos RFCs, bem como gerente
da administração centralizada de número de protocolo.


O efeito dos RFCs foi criar um círculo positivo de retornos, com idéias
e propostas apresentadas em um RFC gerando outro RFC com mais idéias,
e daí por diante. Quando algum consenso (ou pelo menos uma série
consistente de idéias) era atingido, um documento com as especificações
era então preparado. Estas especificações seriam então
usadas como base para implementações pelas várias equipes
de pesquisa.


Com o tempo, os RFCs se tornaram mais focados nos padrões de protocolo
( as especificações oficiais), apesar de ainda existir RFCs informativos
que descrevem abordagens alterantivas ou provêem informações
antecedentes sobre protocolos e engenharia. Os RFCs são agora vistos
como documentos de registro nas comunidades de engenharia e padrões da
Internet. O acesso aberto aos RFCs (grátis, se você tem qualquer
tipo de conexão com a Internet) promove o crescimento da Internet porque
permite que especificações reais sejam usadas como exemplos em
classes universitárias e por empreendedores desenvolvendo novos sistemas.


O correio eletrônico tem sido essencial em todas as áreas da Internet,
e especialmente no desenvolvimento das especificações dos protocolos,
padrões técnicos e engenharia da Internet. OS RFCs mais antigos
apresentaram um conjunto de idéias desenvolvidas por pesquisadores de
um determinado lugar para o resto da comunidade. Depois que o e-mail ou correio
eletrônico começou a ser utilizado, o padrão de autoria
mudou - os RFCs eram apresentados por co-autores com uma visão comum,
independentemente de suas localizações.



O uso de listas de discussão especializados tem por muito tempo sido
usado no desenvolvimento das especificações de protocolo e continua
a ser uma ferramente importante. O IETF tem agora mais de 75 grupos de trabalho,
cada um trabalhando num aspecto diferente da engenharia da Internet. Cada um
desses grupos tem uma lista de discussão para trocar idéias sobre
documentos em desenvolvimento. Quando o consenso é atingido num rascunho,
o documento é então distribuído como um RFC.


Como o rápido crescimento da Internet é acelerado pelo entendimento
da sua capacidade de promover o compartilhamento de informações,
nós deveríamos entender que o primeiro papel da rede foi permitir
o compartilhamento da informação sbre seu próprio desenho
e operação através dos RFC. Este método único
para a evolução de novas capacidades da rede continuará
a ser crítico na evolução futura da Internet.


A formação da comunidade



A Internet representa tanto uma coleção de comunidades como uma
coleção de tecnologias, e seu sucesso é largamente atribuído
à satisfação das necessidades básicas da comunidade
e à utilização efetiva da comunidade na expansão
da sua infra-estrutura. O espírito da comunidade tem uma longa história,
começando com a ARPANET. Os pesquisadores da antiga ARPANET trabalharam
numa comunidade fechada para conseguirem fazer as demonstrações
iniciais da tecnologia de transferência de pacotes descrita anteriormente.
Da mesma forma, vários outros programas de pesquisa da ciência
da computação promovidos pela DARPA (Packet Satellite, Packet
Radio e outros) foram fruto de atividades cooperadas que usavam pesadamente
qualquer mecanismo disponível para coordenar seus esforços, começando
com o correio eletrônico e acrescentando compartilhamento de arquivos,
acesso remoto e WWW. Cada um dos programas formou um grupo de trabalho, começando
com o Grupo de Trabalho de Rede da ARPANET. Por conta do papel da ARPANET na
infra-estrutura de suporte a vários programas de pesquisa, e com a evolução
da Internet, o Grupo de Trabalho de Rede se tornou o Grupo de Trabalho da Internet.


No final da década de 70, reconhecendo que o crescimento da Internet
foi acompanhado pelo crescimento em tamanho da comunidade de pesquisa interessada
na Internet e que, portanto, havia uma necessidade maior de mecanismos de coordenação,
Vint Cerf, então gerente do Programa Internet da DARPA, formou vários
grupos de coordenação:


* um Conselho de Cooperação Internacional (ICB-Internet Cooperation
Board), presidido por Peter Kirstein da UCL, para coordenar as atividades com
alguns países europeus envolvidos no programa Packet Satellite;

* um Grupo de Pesquisa Internet (Internet Research Group), para prover um ambiente
para a troca geral de informações sobre a Internet;


* e um Conselho de Controle de Configuração da Internet (ICCB-Internet
Configuration Control Board), presidido por Clark. O ICCB iria assessorar Cerf
na gerência da florescente Internet.


Em 1983, quando Barry Leiner passou a gerenciar o programa de pesquisa da Internet
na DARPA, ele e Clark reconheceram que o crescimento contínuo da comunidade
Internet demandava uma reestruturação dos mecanismos de coordenação.
O ICCB foi então substituído por forças-tarefa, cada uma
focalizando uma área particular da tecnologia (roteamentos, protocolos
ponta-a-ponta, etc.). O IAB, então chamado Internet Activities Board
ou Conselho de Atividades Internet, foi então formado com os presidentes
das forças-tarefa. Foi uma coincidência que esses presidentes fossem
os mesmos do antigo ICCB e Dave Clark continuou a presidí-lo. Depois
de algumas mudanças no IAB, Phill Gross se tornou o presidente da revitalizada
IETF-The Internet Engineering Task Force (Força-Tarefa da Engenharia
da Internet), naquele tempo apenas uma das forças-tarefa do IAB. Em 1985
então, houve um tremendo crescimento no lado prático/da engenharia
da Internet. Este crescimento resultou na explosão dos comparecimentos
nas reuniões do IETF, e Gross teve que criar uma sub-estrutura do IETF
na forma de grupos de trabalho.


Este crescimento foi complementado por uma grande expansão da comunidade.
DARPA então tinha deixado de ser o maior financiador da Internet. Além
da NSFNet e de várias atividades financiadas pelos governos americano
e internacionais, o segmento comercial começou a se interessar pela Internet.
Também em 1985 Kahn e Leiner deixaram a DARPA que não vinha conseguindo
manter seu ritmo de atividades Internet. Como resultado, o IAB perdeu seu patrocinador
e progressivamente assumiu o papel de líder na Internet.


O crescimento da Internet continuou, resultando em nova sub-estruturação
do IAB e do IETF. O IETF combinou Grupos de Trabalho em Áreas, e designou
Diretores de Áreas. Um Grupo Diretivo de Engenharia da Internet ou a
IESG- Internet Engineering Steering Group foi formado com Diretores de Áreas.
A IAB reconheceu a crescente importância do IETF e reestruturou o processo
de padrões para explicitamente reconhecer o IESG como o grupo principal
de revisão para os padrões. O IAB também foi reestruturado
de forma que o resto das forças-tarefa (outras além do IETF) fossem
combinadas numa Força-Tarefa de Pesquisa Internet ou IRTF- Internet Research
Task Force, presidida por Postel, com as outras forças-tarefa renomeadas
como Grupos de Pesquisa.


O crescimento do setor comercial trouxe uma crescente preocupação
em relação ao próprio processo de standards Internet. A
Internet tinha crescido muito além de suas raízes primárias
de pesquisa, passando a incluir uma grande comunidade de usuários e atividades
comerciais cada vez maiores. O processo deveria ser aberto e justo. Esta preocupação,
acompanhada da necessidade reconhecida de suporte da comunidade da Internet,
eventualmente levou à formação da Internet Society em 1991,
com o patrocínio da CNRI-Corporation for National Research Initiatives
de Kahn e a liderança de Cerf, então com a CNRI.


Em 1992, outra reorganização foi feita de forma a reorganizar
o IAB e renomeá-lo Internet Architecture Board (ou Conselho de Arquitetura
da Internet) e a colocá-lo sob o comando da Internet Society. Uma relação
de mesmo nível foi definida entre o novo IAB e i IESG, com o IETF e o
IESG tendo uma maior responsabilidade na aprovação dos standards.
Principalmente, uma relação cooperativa e mutuamente apoiadora
foi formada entre o IAB, o IETF e a Internet Society, com a Internet Society
tomando como objetivo a provisão do serviço e outras medidas que
iriam facilitar o trabalho do IETF.


O recente desenvolvimento e uso da World Wide Web (WWW) formou uma nova comunidade,
já que muitos dos que trabalham com a WWW não são pesquisadores
ou desenvolvedores. Uma nova organização coordenadora foi formada
então: o W3C-World Wide Web Consortium. Inicialmente liderado pelo laboratório
para a Ciência da Computação do MIT, por Tim Berners-Lee
(o inventor do WWW) e Al Vezza, W3C tomou a responsabilidade de evoluir com
vários protocolos e padrões associados com a Web.


Assim, através das duas décadas da Internet, nós temos
visto uma estável evolução das estruturas organizacionais
desenhadas para suportar e facilitar uma sempre crescente comunidade trabalhando
colaborativamente em assuntos ligados à Internet.



A comercialização da tecnologia



A comercialização da Internet envolveu não somente o desenvolvimento
de serviços privados e competitivos mas também produtos comerciais
implementando a tecnologia Internet. Nos anos 80, dezenas de vendedores incoporaram
TCP/IP em seus produtos porque viram compradores para aquele modelo de rede.
Infelizmente, eles não tiveram informação sobre como a
tecnologia trabalhava e como os clientes planejavam usá-la. Muitos a
viram como um add-on que deveria ser adicionado às suas soluções
proprietárias de redes: SNA, DECNet, Netware, MetBios. O Departamento
de Defesa americano tinha autorizado o uso de TCP/IP em muitas de suas compras
mas tinha dado pouca orientação aos seus vendedores em relação
a como construir produtos TCP/IP de utilidade.


Em 1985, devido à falta de informação e à falta
de apropriado treinamento, Dan Lynch e o IAB realizaram um workshop para "todos"
os vendedores para que eles pudessem aprender como TCP/IP funcionava e que problemas
ainda tinha. Os palestrantes vieram em sua maioria da comunidade de pesquisa
da DARPA, que tinha desenvolvido os protocolos e os usavam diariamente. Cerca
de 250 representantes de vendedores ouviram 50 inventores e experimentadores.
Os resultados foram surpresas em ambos os lados: os vendedores ficaram impressionados
em como os inventores eram tão abertos sobre como as coisas funcionavam
(ou não) e os inventores ficaram felizes em ouvir sobre novos problemas
que eles não tinham considerado mas que estavam sendo descobertos pelos
vendedores. Desta forma, uma saudável discussão em mão-dupla
foi formada, discussão esta que tem durado por mais de uma década.


Depois de dois anos de conferências, tutoriais, encontros e workshops,
um evento especial foi organizado e para o qual foram convidados os fabricantes
de produtos que rodavam TCP/IP bem o suficiente para se reunirem por 3 dias
e mostrar o quanto eles trabalhavam bem juntos - e também para examinarem
a Internet. Em setembro de 1988, o primeiro Interop trade show foi realizado.
50 empresas expuseram e 5.000 engenheiros de corporações consideradas
clientes potenciais vieram ao trade show para ver se tudo funcionava como prometido.
E funcionou! Por que? Porque os fabricantes trabalharam duro para assegurar
que os produtos de todos operariam com todos os outros produtos, mesmo aqueles
dos seus competidores. O Interop trade show tem crescido imensamente desde então
e hoje é realizado anualmente em sete locais no mundo, com uma audiência
de quase 250 mil pessoas que querem aprender sobre os últimos produtos
lançados e discutir a mais recente tecnologia da interoperabilidade.


Paralelamente aos esforços de comercialização que foram
salientados, os fornecedores começaram a participar dos encontros do
IETF, realizados 3 ou 4 vezes ao ano para discutir novas idéias para
extensões do TCP/IP protocol suite. De poucas centenas de acadêmicos
presentes e pagos pelo governo, os encontros do IETF agora reúnem milhares
de representantes de fornecedores e são pagos pelos próprios participantes.
O grupo auto-selecionado envolui o TCP/IP numa mutuamente cooperativa maneira.
Isto é muito útil, já que o grupo é bem diversificado,
envolvendo pesquisadores, usuários finais e fabricantes.


A gerência da rede é um exemplo da interação entre
a comunidade de pesquisa e a comunidade comercial. No começo da Internet,
a ênfase era definir e implementar protocolos que atingiam a interoperabilidade.
Quando a rede cresceu, ficou claro que procedimentos específicos usados
para gerenciar a rede não mais serviriam. A configuração
manual de tabelas foi substituída pela distribuição de
algorítmos automatizados e ferramentals melhores foram criadas para isolar
falhas. Em 1987, ficou também claro que seria necessário um protocolo
que permitisse que os elementos da rede, como roteadores, fossem remotamente
gerenciados, uniformemente. Vários protocolos foram então propostos,
incluindo o SNMP - Simple Network Management Protocol (Procolo de Gerência
de Rede Simples, desenhado para a simplicidade e derivado de uma proposta anterior
chamada SGMP), o HEMS (um design mais complexo da comunidade de pesquisa) e
o CMIP (da comunidade OSI). Uma série de encontros levou à decisão
de que o HEMS seria desconsiderado como candidato para resolver a disputa, mas
que o trabalho em ambos o SNMP e o CMIP prosseguiria, com a idéia de
que o SNMP poderia ser uma solução de curto prazo e o CMIP uma
solução de mais longo prazo. O mercado iria escolher o que achasse
mais adequado. O SNMP é agora usado quase universalmente como gerência
de rede.


Nos últimos anos, temos visto uma nova fase da comercialização.
Originalmente, esforços comerciais eram dirigidos aos vendedores que
proviam os produtos básicos da rede e aos provedores que ofereciam conectividade
e serviços básicos da Internet. A Internet agora se tornou quase
uma "commodity" e muita atenção tem sido dada recentemente
ao uso de sua estrutura global de informação para suportar outros
serviços comerciais. Isto tem sido tremendamente acelerado pela rápida
adoção dos browsers e da tecnologia Web, permitindo aos usuários
acessar a informação linkada em qualquer lugar do globo. Produtos
estão disponíveis para facilitar a provisão desta informação
e muito dos últimos desenvolvimentos em tecnologia tem sido no sentido
de permitir cada vez mais sofisticados serviços de informação
no topo da base das comunicações de dados da Internet.



terça-feira, 4 de setembro de 2007

Kurumin - LINUX

» Dados do Aplicativo
Nome: Kurumin Linux 7.0 r2
Ano de Lançamento: 2007
» Descrição
o Kurumin 7 é baseado no Etch - a nova versão estável do Debian. Ele é um release "de longa duração", que você poderá usar por muito mais tempo, sem sustos ao tentar atualizar o sistema e instalar novos pacotes via apt-get. Ao mesmo tempo, aqueles com espírito aventureiro podem configurar o sistema para usar a versão testing/unstable do Debian e assim acompanhar as últimas novidades.

Além disso, o sistema passou por uma maturação muito mais longa. Ficou muito mais polido e incorporou mais funções, como o suporte a escrita nas partições NTFS do Windows, mais opções de configurações, melhor suporte a redes wireless e periféricos bluetooth, melhor suporte 3D, ícones mágicos e assim por diante, resultando na mais completa e estável versão do Kurumin de todos os tempos.
» Configuração Mínima
A configuração recomendada para rodar o Kurumin a partir do CD, rodar o OpenOffice e assistir a vídeos em Divx é um Pentium II 266 com 256 MB de RAM. A configuração mínima para rodar o sistema com qualidade é um Pentium II com 128 MB.

Ao instalar o sistema no HD, o desempenho melhora e o consumo de memória cai um pouco, pois o sistema não precisa mais criar o ramdisk nem descompactar os dados do CD. Mesmo assim, não espere milagres, o sistema não vai ficar rápido no seu 486 só por ser instalado no HD.

Embora o Kurumin possa "dar boot" até mesmo num Pentium 100 com 32 MB (caso exista memória swap suficiente), esta com certeza não será uma experiência muito agradável.
»Informações
Tamanho: 639 Mb
Formato: Iso
Idioma: Português
Créditos: Programas Úteis
DOWNLOAD


TRANSFORMERS

Antes de qualquer coisa: Se você ainda não viu esse filme, leia isso e depois pegue a primeira sessão que esteja passando!!!

Que filme animal, putaquilpariu! Quando eu fui vê-lo, não esperava tanto assim. Não estava preparado. Eu tinha um certo preconceito, de tanto ler resenhas e artigos sobre esse filme, eu imaginava que não passava de mais um puta marketing em torno de um filmezinho qualquer... Entrei na sessão despreocupado, com vontade de mijar, pois a qualquer momento poderia levantar no meio do filme e aliviar a bexiga... Mas eu não sabia que estava por ver o filme mais espetacular do ano!

A príncipio o enredo parece bobinho. Não me agradava muito esse papo de carros-que-viram-robô alienígenas trocarem sopapos no planeta Terra, e ainda com o exército dos EUA tentando impedir uma catástrofe maior. Também não curtia a idéia de recussitar um desenho japonês dos anos 80. Mas a grande sacada de Michael Bay e Steven Spielberg foi que esse filme não é para as crianças de hoje, e sim para os pirralhos lá dos anos 80! Isso permitiu desenvolver essa história de forma menos infantil, com cenas um pouco mais violentas, e um humor mais refinado. O filme me surpreendeu demais.

Eu não lembro de ter assistido Transformers quando moleque, e muito menos de ter algum boneco da série. O filme não me trouxe nenhuma sensação de nostalgia, mas me impressionou principalmente por, além do ótimo desenvolvimento do enredo, mostrar efeitos especiais de computação gráfica nunca antes vistos por mim. Se você se impressionou com os 100 Agentes Smiths de Matrix, você vai ter um orgasmo ao ver os robozões se enchendo de porrada no meio da cidade lotada, com carros sendo esmagados, pessoas voando pra tudo quanto é lado, prédios ruindo... Conseguiram uma exelente integração entre o real e os gráficos computadorizados.

Se você for ver o filme despreocupado que nem eu, irá se surpreender bastante. Mas se você for ver buscando aquela sensação de nostalgia, talvez irá se impressionar ainda mais com esse filme. Eu já disse que é o melhor filme do ano, por enquanto?

Trailler:



Avaliação: Muito Boa! Garanto!

Curso De - BATERIA

Não garanto que após ler essa apostila você poderá comprar uma bateria e sair por ai arrebentando, afinal eu não li, só dei uma olhadinha... Mas pelo que eu vi tem bastante coisas sobre teoria da música. Mesmo que você não aprenda a tocar bateria, com certeza você sairá com alguma sabedoria musical.

Garantia: Indeterminada...

Apostila De - DJ

Eu pessoalmente não sou muito fã de música eletrônica. Não sei diferenciar trance de techno, muito menos qualificar uma boa melodia. Tá, se o cara tiver na balada e tal, tudo bem né, não vai ficar paradão la só porque não curte música eletrônica... Quem é fã e não sabe como funciona o esquema, ou mesmo quem quer conhecer mais sobre esse tipo de música, baixa essa apostila e da uma lida.

Garantia: Não Sei! xD

Termos De Uso - ComicTentsy

Os arquivos aqui presentes não são de nossa autoria. Apenas reunimos os arquivos nesse blog. Também NÃO NOS RESPONSABILIZAMOS por qualquer dano/prejuíso causado por alguma coisa postada aqui, pois não testamos tudo.

OBRIGADO - ComicoTenso

Add Meu (" FEED ")