Seja Bem Vindo ao meu Blog pessoal!!

sábado, setembro 25, 2010

A História da Internet

          A Internet é um grande conjunto de redes de computadores interligadas pelo mundo inteiro; de forma integrada viabilizando a conectividade independente do tipo de máquina que seja utilizada, que para manter essa multi-compatibilidade se utiliza de um conjunto de protocolos e serviços em comum, podendo assim, os usuários a ela conectados usufruir de serviços de informação de alcance mundial. 
          

          A comunicação via Internet pode ser de diversos tipos: 

Dados 
Voz 
Vídeo 
Multimídia 

          Devido a recursos cada vez mais "pesados", uma maior velocidade das transmissões torna-se cada vez mais necessária.

          O "caminho" percorrido por um pacote de dados, a título de exemplo, nem sempre segue da fonte direto ao destino, pelo contrário, isto é até bem raro. Mais comum, são os dados percorrerem caminhos diversos, passando por n computadores até o destino, visando sempre o menor trajeto; apesar disto, o processo é bem rápido.
          Com a aparição e uso mais difundido das Intranet's, integrando redes internas de grandes empresas com a Internet, a utilização da mesma vem sendo cada vez mais diversificada. 
Com a expansão do uso, causado pelo grande Boom da Internet nos últimos anos - até em grande parte um modismo - todos os usuários vêm sofrendo com as sobrecargas de informação nos horários de grande utilização (conhecidos como "gargalos"); resta apenas a dúvida sobre até quando a Internet, como nós conhecemos hoje, vai sobreviver. - A Internet II já está em fase de teste para implantação. 

História da Internet 

          A Internet surgiu a partir de um projeto da agência norte-americana Advanced Research and Projects Agency (ARPA) objetivando conectar os computadores dos seus departamentos de pesquisa. A Internet nasceu à partir da ARPANET, que interligava quatro instituições: Universidade da Califórnia, LA e Santa Bárbara; Instituto de Pesquisa de Stanford e Universidade de Utah, tendo início em 1969.

          Os pesquisadores e estudiosos do assunto receberam o projeto à disposição, para trabalhar. Deste estudo que perdurou na década de 70, nasceu o TCP/IP (Transmission Control Protocol / Internet Protocol), grupo de protocolos que é a base da Internet desde aqueles tempos até hoje.
          A Universidade da Califórnia de Berkley implantou os protocolos TCP/IP ao Sistema Operacional UNIX, possibilitando a integração de várias universidades à ARPANET. 
Nesta época, início da década de 80, redes de computadores de outros centros de pesquisa foram integrados à rede da ARPA. Em 1985, a entidade americana National Science Foundation (NSF) interligou os supercomputadores do seu centro de pesquisa, a NSFNET, que no ano seguinte entrou para a ARPANET. A ARPANET e a NSFNET passaram a ser as duas espinhas dorsais (backbone) de uma nova rede que junto com os demais computadores ligados a elas, era a INTERNET.

          Dois anos depois, em 1988, a NSFNET passou a ser mantida com apoio das organizações IBM, MCI (empresa de telecomunicações) e MERIT (instituição responsável pela rede de computadores de instituições educacionais de Michigan), que formaram uma associação conhecida como Advanced Network and Services (ANS).
          Em 1990 o backbone ARPANET foi desativado, criando-se em seu lugar o backbone Defense Research Internet (DRI); em 1991/1992 a ANSNET, que passou a ser o backbone principal da Internet; nessa mesma época iniciou-se o desenvolvimento de um backbone europeu (EBONE), interligando alguns países da Europa à Internet.
          A partir de 1993 a Internet deixou de ser uma instituição de natureza apenas acadêmica e passou a ser explorada comercialmente, tanto para a construção de novos backbones por empresas privadas (PSI, UUnet, Sprint,...) como para fornecimento de serviços diversos, abertura essa a nível mundial. 

Como Funciona a Internet 

          Uma das dúvidas mais freqüentes sobre a Internet é: quem controla seu funcionamento? É inconcebível para a maioria das pessoas que nenhum grupo ou organização controle essa ampla rede mundial. A verdade é que não há nenhum gerenciamento centralizado para a Internet. Pelo contrário, é uma reunião de milhares de redes e organizações individuais, cada uma delas é administrada e sustentada por seu próprio usuário. Cada rede colabora com outras redes para dirigir o tráfego da Internet, de modo que as informações possam percorrê-las. Juntas, todas essas redes e organizações formam o mundo conectado da Internet. Para que redes e computadores cooperem desse modo, entretanto, é necessário que haja um acordo geral sobre alguns itens como procedimentos na Internet e padrões para protocolos. Esses procedimentos e padrões encontram-se em RFCs (requests for comment ou solicitações para comentários) sobre os quais os usuários e organizações estão de acordo.

          Diversos grupos orientam o crescimento da Internet ajudando a estabelecer padrões e orientando as pessoas sobre a maneira adequada de usar a Internet. Talvez o mais importante seja a Internet Society, um grupo privado sem fins lucrativos. A Internet Society suporta o trabalho da Internet Activities Board (IAB), a qual controla muitas das emissões por trás das cenas e arquitetura da Internet. A Internet Engineering Task Force da IAB é responsável pela supervisão do envolvimento dos protocolos TCP/IP da Internet. A Internet Research Task Force da IAB trabalha na tecnologia da rede. A IAB também é responsável pela designação de endereços IP da rede através de Internet Assigned Numbers Authority. Além disso, dirige a Internet Registry (Central de Registros da Internet), que controla o Domain Name System (Sistema de Nomes de Domínio) e trata da associação de nomes de referência a endereços IP World Wide Web Consortium (W3 Consortium, Consórcio da Teia Mundial) desenvolve padrões para a evolução da parte de crescimento mais rápido da Internet, a Teia Mundial (World Wide Web). Um consórcio da indústria, controlado pelo Laboratory for Computer Science no Massachusetts Institute of Technology, colabora com organizações por todo o mundo, como o CERN, os originadores da Teia. Ele serve como um depósito de informações sobre a Teia para desenvolvedores e usuários; implementa padrões da Teia e realiza protótipos, e usa aplicações exemplo para demonstrar nova tecnologia.
          Enquanto essas organizações são importantes como um tipo de "cola" para manter a Internet unida, no coração da Internet estão redes locais individuais. Essas redes podem ser encontradas em empresas privadas, universidades, agências governamentais e serviços comerciais. São fundadas separadamente uma das outras através de várias formas, como taxas de usuários, suporte de associados, impostos e doações. 

          As redes são conectadas de vários modos. Para fins de eficiência, as redes locais unem-se em consórcios conhecidos como redes regionais. Uma variedades de linhas arrendadas conectam redes regionais e locais.

          As linhas arrendadas que conectam redes podem ser tão simples como uma única linha telefônica ou tão complexas com um cabo de fibra ótica com enlaces de microondas e transmissões de satélite.
          Backbones (alicerces) - linhas de capacidade extremamente alta - transportam grandes quantidades tráfego da Internet. Esses backbones são sustentados por agências governamentais e por corporações privadas. Alguns backbones são mantidos pela National Science Foundation. 

          Como a Internet é uma organização livre, nenhum grupo a controla ou a mantém economicamente. Pelo contrário, muitas organizações privadas, universidades e agências governamentais sustentam ou controlam parte dela. Todos trabalham juntos, numa aliança organizada, livre e democrática. Organizações privadas, variando desde redes domésticas até serviços comerciais e provedores privados da Internet que vendem acesso à Internet.

          O governo federal sustenta alguns backbones de alta velocidade que transportam o tráfego da Internet pelo país e pelo mundo, através de agências como o National Science Foundation. O vBNS extremamente rápido (very high-speed Backbone Network Services), por exemplo, fornece uma infra-estrutura de alta velocidade para a comunidade da pesquisa e educação unindo centros de supercomputadores e que possivelmente, também fornecerá um backbone para aplicações comerciais. 

          Redes regionais fornecem e mantêm acesso dentro de uma área geográfica. Redes regionais podem consistir de pequenas redes e organizações dentro da área que se uniram para oferecer um serviço melhor.

          Os Centros de Informações em Rede (Network Information Centers), ou NICs, ajudam as organizações a utilizar a Internet. O InterNIC, uma organização mantida pela National Science Foundation, auxilia os NICs em seu trabalho.
          O Internet Registry registra os endereços e conexões entre endereços e nomes de referências. Os nomes de referências são nomes fornecidos às redes conectadas à Internet.
          A Internet Society é uma organização privada, sem fins lucrativos, que elabora recomendações tecnológicas e de arquitetura pertinentes à Internet, como sobre como os protocolos TCP/IP e outros protocolos da Internet devem funcionar. Esse órgão orienta a direção da Internet e seu crescimento.
          Os provedores de serviços da Internet vendem conexões mensais à Internet para as pessoas. Eles controlam seus próprios segmentos da Internet e também podem fornecer conexões de longa distância chamadas backbones. As companhias telefônicas também podem fornecer conexões de longa distância à Internet. 

quarta-feira, setembro 22, 2010

A.I. - Inteligência Artificial


       A inteligência artificial é um ramo de pesquisa da ciência da computação que busca, através de símbolos computacionais, construir mecanismos e/ou dispositivos que simulem a capacidade do ser humano de pensar, resolver problemas, ou seja, de ser inteligente. O estudo e desenvolvimento desse ramo de pesquisa tiveram início na Segunda Guerra Mundial. Os principais idealizadores foram os seguintes cientistas: Hebert Simon, Allen Newell, Jonh McCarthy e vários outros, que com objetivos em comum tinham a intenção de criar um “ser” que simulasse a vida do ser humano. 

       O estudo da A.I. iniciou-se nos anos 50 com os cientistas Hebert Simon, Allen Newell, esses foram os pioneiros ao criarem o primeiro laboratório de inteligência artificial na Universidade de Carnegie Mellon. 

       O desejo de construir máquinas capazes de reproduzir a capacidade humana de pensar e agir vem de muitos anos. Tal fato pode ser comprovado através da existência de máquinas autônomas e também através de personagens místicos, como é o caso do Frankenstein (personagem da escritora Mary Shelley). 

       Com a evolução computacional a inteligência artificial ganhou mais força, tendo em vista que o seu desenvolvimento possibilitou um grande avanço na análise computacional, podendo a máquina chegar a fazer análise e síntese da voz humana. No início os estudos sobre A.I. buscavam apenas uma forma de reproduzir a capacidade humana de pensar, mas assim como todas as pesquisas que evoluem, com essa não foi diferente. Percebendo que esse ramo da ciência tinha muito mais a ser descoberto, os pesquisadores e cientistas abraçaram a idéia de fazer com que uma máquina pudesse reproduzir não só a capacidade de um ser humano pensar como também a capacidade de sentir, de ter criatividade, e de ter auto-aperfeiçoamento e uso da linguagem. Filmes como “O Homem bicentenário” e “A.I. (Inteligência Artificial)” mostram claramente a vontade da máquina de se tornar ser humano, de querer se manifestar, poder ter e sentir tudo o que os humanos têm e sentem. 

       O progresso na principal área dessa pesquisa, que é a de fazer uma inteligência similar à do ser humano, é lento. Porém, os estudos nessa área têm surtido efeito em várias outras áreas, como o planejamento automatizado e escalonamento, jogos, programas de diagnóstico médico, controle autônomo, robótica e outras mais. 

       Esse ramo de pesquisa é muito conflitante, pois existem os que apóiam as pesquisas e a idéia da máquina ter vida própria, como também existe o lado dos que não apóiam a idéia. Para muitos a existência de máquinas com o poder de pensar, sentir e até ter a capacidade de realizar atividades humanas é um fato inconcebível.

quinta-feira, setembro 09, 2010

Web 2.0

        Nos dias atuais, muito se tem falado a respeito de Web 2.0. O conceito para o termo foi criado por Tim O’Reilly, em 2003, o qual diz que Web 2.0 é “a mudança para uma internet como plataforma, e um entendimento das regras para obter sucesso nesta nova plataforma”. Segundo o conceito elaborado por O’Reilly, a regra fundamental da Web 2.0 é o aproveitamento da inteligência coletiva. 


Um dos embasamentos da Web 2.0 é a inteligência coletiva.
        Na verdade, os especialistas afirmam que não há um conceito formado para o que é Web 2.0; de fato, estamos desenvolvendo e moldando esse conceito. Como já foi dito, a principal característica dessa mudança na internet é o aproveitamento da inteligência coletiva. Além disso, a Web 2.0 se baseia no desenvolvimento  de uma rede de informações onde cada usuário pode não somente usufruir, mas sim, contribuir. O exemplo mais claro dessa característica é a Wikipédia, onde cada usuário tem a oportunidade de adicionar informações livremente. 

        A Web 2.0 se conceitua no âmbito essencialmente online. Desta forma, atividades que antes eram feitas de forma offline, com o auxílio de tradicionais programas vendidos em lojas especializadas, passam a ser feitas de forma online, com o uso de ferramentas gratuitas e abertas a todos os usuários. 

        Os críticos argumentam que a Web 2.0 se trata apenas de um buzzword, uma jogada de marketing, um rótulo. Para estas pessoas, não houve uma mudança significativa no marketing praticado pela Internet para exemplificar uma teórica “evolução” de 1.0 para 2.0. Segundo os críticos, as maneiras de se obter lucros continuam exatamente as mesmas: publicidade. De qualquer forma, a evolução de internet é algo concreto. A grande questão dessa discussão é se a Web 2.0 é ou não a representação dessa evolução.

domingo, setembro 05, 2010

Nanotecnologia

        É a capacidade de criar objetos de qualidade superior aos existentes hoje, a partir da organização dos átomos da forma desejada. 

        Durante uma palestra para a Sociedade Americana de Física em 1959, o físico americano Richard Feynman (1918-1988) apresentou seu projeto para uma nova pesquisa. O estudo era baseado na possibilidade de poder organizar os átomos da maneira que desejarmos. Porém essa idéia era muito avançada para época. Após trinta anos, a idéia de Feynman toma forma na ciência do muito pequeno, a nanotecnologia, denominada dessa forma porque seus objetos de estudo costumam ser medidos em nanômetros. Um nanômetro (nm) equivale a um bilionésimo de metro. 

        A pergunta de Richard Feynman foi: O que aconteceria se pudéssemos mover os átomos? Obteve uma resposta que foi dada pelos cientistas que os manipulam hoje. Segundo os cientistas, através de uma provável manipulação da movimentação do átomo, seria possível construir supercomputadores que caibam no bolso, colocar microssondas para fazer testes sangüíneos dentro do corpo humano, etc. Tudo isso gira em torno de previsões e suposições, as quais poderão torna-se realidade em aproximadamente uma década. 

       A nanotecnologia hoje engloba muitas áreas de pesquisa, dos diversos setores da indústria e das áreas estratégicas. O desenvolvimento da nanotecnologia é de extrema importância para o Brasil como para Portugal, levando em consideração que tanto a indústria brasileira como a portuguesa terão de competir internacionalmente com novos produtos, para que suas economias se recuperem e retomem o crescimento econômico. Essa competição se tornará bem sucedida a partir do surgimento de produtos e processos inovadores, que se comparem ou, até mesmo, superem os melhores produtos oferecidos pela indústria internacional. 

       Um dos grandes problemas que poderá ser gerado pela nanotecnologia é a nanopoluição, gerada por nanomateriais ou durante a confecção desses. Esse tipo de poluição, composta por nanopartículas, pode ser mais perigosa do que a poluição existente no planeta, uma vez que pode flutuar facilmentepelo ar viajando por grandes distâncias. Pelo fato dos nanopoluentes não existirem na natureza, provavelmente as células não terão as armas necessárias para lidar com eles, provocando danos ainda não conhecidos.

Fonte:
http://www.brasilescola.com/informatica/nanotecnologia.htm
(c) Copyright 2010 Guilherme Augusto Dapper. All rights reserved.. Tecnologia do Blogger.