Blu-ray é o mais novo formato de disco óptico da atualidade, sendo para muitos, o sucessor do DVD. Esta mídia foi desenvolvida para o armazenamento de uma grande quantidade de dados, cerca de 25 GB, e execução de vídeos de altíssima qualidade. Enquanto o DVD usa um laser de 650 de nanômetros, o Blu-ray utiliza um de 405, possibilitando gravar mais informações em um disco do mesmo tamanho.
O nome “Blu-ray” (Blue = azul; ray = raio) vem do fato desta tecnologia utilizar um laser azul para ler e gravar dados. O “e” de “blue” foi retirado do nome do produto devido ao fato de que em alguns países não é possível registrar uma palavra comum como nome comercial.
Este padrão de disco óptico foi desenvolvido pela Blu-ray Disc Association (BDA) em pareceria com um grupo de empresas do ramo de eletrônicos, informática e entretenimento, como Sony, Apple, Samsung, Walt Disney Pictures, entre outras.
Seu principal concorrente na nova geração de discos ópticos é o HD-DVD. A diferença básica entre os dois tipos de tecnologias é a capacidade de armazenamento, na qual o Blu-ray leva vantagem. No entanto, setores da indústria acreditam que o blu-ray seja mais utilizado em aplicações de informática, enquanto o HD-DVD, no armazenamento de filmes.
Além das vantagens de armazenamento e alta-definição, uma das características do blu-ray é a presença de um substrato em sua composição, evitando assim o surgimento de defeitos provenientes de arranhões. O principal fator negativo deste tipo de tecnologia é o preço de sua mídia, bastante elevado se comparado com o DVD.
Realidade em três dimensões. Certamente você já ouviu falar sobre esse conceito. Os efeitos em terceira dimensão estão se tornando cada vez mais comuns em nosso cotidiano e, para um futuro próximo, parecem estar encaminhando para se tornar a nova febre do mundo do entretenimento.
Mas o que poucos sabem é que, embora esta tecnologia só agora tenha começado a se desenvolver, seus princípios e as primeiras experiências já têm mais de meio século. Para se ter uma ideia em 1952, nos Estados Unidos, foi exibido o primeiro filme em 3D nos cinemas. Claro, nada como é apresentado nas modernas salas de hoje em dia, mas a experiência de ter a impressão de ver as imagens saindo da tela – ainda que precária – causou furor no público.
Assim, durante toda a década outras experiências foram feitas, mas à época as prioridades eram outras. Era preciso aprimorar o som, o formato de exibição de imagem, reformar as salas de cinema e aprimorar os óculos de papel - com uma lente azul e outra vermelha – que além de ser desconfortáveis causavam dor de cabeça e enjoo em algumas pessoas.
Afinal, como é feito o 3D e por que vemos em três dimensões?
A terceira dimensão não existe, é apenas uma ilusão da sua mente. Literalmente. E isso é possível graças a um fenômeno natural chamado estereoscopia. Apesar do nome complicado trata-se apenas da projeção de duas imagens, da mesma cena, em pontos de observação ligeiramente diferentes.
Seu cérebro, automaticamente, funde as duas imagens em apenas uma e, nesse processo, obtém informações quanto à profundidade, distância, posição e tamanho dos objetos, gerando uma ilusão de visão em 3D.
Para que isso seja possível, no entanto, a captação dessas imagens não é feita de uma forma qualquer. Lembre-se que o efeito 3D é composto por duas imagens projetadas em pontos distintos. Logo, na captação, devem ser filmadas duas imagens ao mesmo tempo. Essa correção de enquadramento é feita por softwares específicos, em tempo real, que reduzem as oscilações na imagem, deixando a composição mais realista.
A câmera estereoscópica simula a visão do olho humano. Cada lente é colocada a cerca de seis centímetros uma da outra (já que essa é a distância média entre os olhos de uma pessoa). E nesse processo ainda devem ser controlados zoom, foco, abertura, enquadramento (que deve ser exatamente o mesmo) e o ângulo relativo entre elas. Não é uma tarefa fácil ou que você possa fazer na sua casa. Ou melhor, até é possível, mas é um processo bem trabalhoso.
Um truque utilizado pela indústria é filmar através de uma lente e usar um espelho para projetar uma imagem deslocada em uma segunda lente. A imagem refletida é girada e invertida antes da edição do filme. E, por se tratar de um espelho, é preciso fazer ainda as correções de cores e brilhos necessárias para que não dê a impressão de imagens distintas.
Porque o 3D é a menina dos olhos do entretenimento
Grande parte das tecnologias desenvolvidas para as áreas de entretenimento nasceram de experiências realizadas primeiramente no mundo do cinema. E o cinema, por sua vez, “brinca” de ser laboratório apenas quando se sente ameaçado. Foi assim quando a TV se desenvolveu que o cinema procurou aperfeiçoar a qualidade das projeções.
Quando a TV começou a crescer, com o home vídeo, vieram as novidades em termos de som e imagens digitais. E agora, quando ter um cinema em casa já não é mais novidade e o acesso a qualquer produto de entretenimento ficou mais fácil graças à internet, os efeitos em 3D surgem como uma salvação para a indústria.
As explicações para isso são simples. Em primeiro lugar o 3D, por enquanto, é a arma mais eficaz para combater a pirataria. Qualquer espectador mal intencionado, com uma câmera na mão, que tentar entrar numa sala de exibição 3D para tentar filmar a tela e jogar na internet vai se dar mal. Sem os óculos especiais as imagens que compõe a projeção 3D não passam de um borrão na tela.
Com o avanço das tecnologias de home theater, é bem possível que muitas pessoas já tenham em casa salas de cinema melhor estruturadas do que muitos cinemas pequenos, com antigas estruturas. Com isso, muito se perguntam: porque pagar mais caro para ver um filme no cinema se pode ver com uma qualidade quase igual no conforto da minha casa? Nesse quesito o 3D surge com um diferencial. Afinal, por mais que exista qualidade de projeção, ainda não existe nada feito em 3D para ser exibido em home vídeo com a mesma qualidade que você encontra nas telonas.
As salas de cinema IMAX
Em termos de tecnologia 3D não há novidades nas salas de cinema IMAX. O que acontece nelas é a potencialização tanto do áudio quanto do vídeo nas melhores condições possíveis para que sua experiência seja algo realmente tridimensional.
A começar pelo tamanho da tela. Ela mede 12 metros de altura por 22 metros de largura. São 264 metros quadrados apenas de tela. Além disso, o som utilizado nessas salas chega a ter 14 mil watts de potência. Mesmo em condições normais de projeção, sem o 3D, isso já o suficiente para deixá-lo bastante impressionado.
A geometria das salas também é personalizada, visando maximizar o campo de visão do espectador. A tela de uma sala IMAX é levemente côncava, o que colabora para a ampliação do campo. Por enquanto no Brasil são apenas duas salas. Uma em São Paulo e, a maior delas, em Curitiba.
Questão de tempo para outra mudança acontecer
Se a indústria cinematográfica é pioneira, por outro lado, não é a única e também está sujeita a evolução cada vez mais rápida das novas tecnologias. A maior prova disso é que, enquanto o 3D dá os primeiros passos nos cinemas brasileiros (atualmente o país conta com 67 salas de exibição nesse formato) fora da grande tela outras mídias já dão seus primeiros passos em direção a essa nova realidade.
Nesta semana o YouTube disponibilizou um dos primeiros vídeos de experimentação em 3D do site. A ideia é que os usuários, tendo em mãos um dos vários tipos de óculos que permitem a visualização de imagens em três dimensões, possam relatar o que viram e, com isso, possa ser aprimorada a experiência de exibições como essa.
Com as televisões não é diferente. No início do ano, durante a CES (Consumer Electronics Show) 2009, uma das principais feiras do segmento de eletroeletrônicos do mundo, empresas como a Sony, Panasonic, Samsung, LG e Mitsubishi mostraram alguns protótipos de TVs especiais com capacidade 3D.
Ainda não há uma data para o seu lançamento oficial, mas de acordo com a Panasonic a ideia é colocar o produto à venda já em 2010. O grande diferencial deste produto é que eles dispensam a necessidade dos óculos 3D. Embora ainda com falhas, é uma mostra que há um bom potencial de desenvolvimento nesse quesito.
A Philips também tem alguns aparelhos como esse em teste sendo comercializados para grandes corporações. Estimativas dão conta que o preço desses aparelhos, que utilizam uma tecnologia batizada de WoW vx, gira na faixa de onze mil euros.
Pequenos avanços colocados no mercado nos últimos anos estão tornando essa possibilidade mais real. Um deles é o aumento da frequência das telas de LCD, de 60 Hz para freqüências de 120 Hz e 240 Hz. Isso permite imagens em movimento mais nítidas e com menos borrões durante as transições.
Como isso é possível sem os óculos?
A grande sacada do efeito em 3D sem óculos está nas telas de cristal líquido. Quando combinadas lentes especiais (visores autoestereoscópicos) com a maior frequência de transição de imagens, o resultado é a projeção de uma imagem que é captada pelo olho humano como sendo em terceira dimensão.
Como explicamos, a projeção 3D simula a visão do olho humano e, por isso, tanto na captação quanto na projeção, é preciso duas imagens para simular os olhos esquerdo e direito e compor uma única imagem. Na televisão 3D são geradas duas imagens simultâneas, que vistas através de uma lente no próprio cristal líquido, fazem com que o cérebro perceba apenas uma única imagem, criando a ilusão da terceira dimensão.
Os custos ainda são proibitivos e há muito a ser desenvolvido. Segundo especialistas, os efeitos por enquanto só são perceptíveis de maneira convincente em telas maiores do que 50 polegadas. Além disso, não basta ter uma TV em terceira dimensão é preciso que haja conteúdo sendo produzido também para esse formato. E aí entra em cena também a necessidade de popularização do Blu-ray, mídia que dá suporte a essa alta resolução necessária.
Terceira dimensão na palma da sua mão
Depois das TVs os próximos a ganhar telas 3D serão os celulares, players e iPods. Mas se anteriormente dissemos que a percepção do 3D só é eficiente em aparelhos de TV superiores as 30 polegadas, como isso será possível nas pequenas telas dos celulares?
Na tecnologia móvel 3D é você quem fará a diferença. Quanto mais próximo você chegar do aparelho, menor será o campo da sua visão (o espaço entre você e o aparelho), mas seu campo de visão (o espaço que você enxerga) permanece o mesmo.
A ideia não é nova, apenas o seu desenvolvimento é que é. A Sharp lançou em 2003 um modelo 3D no Japão. Equipamentos como esse não fizeram sucesso ainda pelo simples fato que praticamente não há conteúdo disponível nesse formato para os aparelhos. Se você já é usuário do iPhone também pode assistir a vídeos em 3D, mas para isso vai precisar usar óculos especiais.
Quando falamos em Segurança nas redes de computadores atualmente, fazemos uma grande referência à Internet, pois é nessa rede mundial onde os ataques aos nossos computadores ocorrem com maior freqüência.
Mas antes de desenvolvermos o tema, temos que nos responder: o que vem a ser “segurança”?
Basicamente, dizemos que uma casa está segura, quando as vulnerabilidades dela foram minimizadas. Mas... e vulnerabilidade? Segundo a ISO (International Standardization Organization - Organização Internacional para Padronização), no contexto da computação, é qualquer fraqueza que pode ser explorada para se violar um sistema ou as informações que nele contém.
Dessa forma, temos várias possíveis violações de segurança em um sistema, ou seja, temos várias ameaças, dentre as quais destacamos:
– Destruição de informação
– Modificação ou deturpação da informação
– Roubo, remoção ou perda de informação / recursos
– Interrupção de serviços
Por definição, temos ainda o ataque, que é a realização efetiva de uma ameaça de forma intencional. Como exemplos de ataques em computação, temos:
– Personificação (masquerade)
– DDos
– Replay
– Modificação
– Engenharia social
– Recusa ou impedimento de serviço
Mediante este ambiente de insegurança onde os dados estão inseridos e fluem nos sistemas e redes de computadores, é que muita empresas adotam políticas de segurança, que são conjuntos de regras, leis e práticas de gestão visando à proteção. Podem ser implementadas com o uso de vários mecanismos, como por exemplo:
– Criptografia
– Assinatura digital
– Autenticação
– Controle de acesso
– Rótulos de segurança
– Detecção, registro e informe de eventos
– Enchimento de tráfego
– Controle de roteamento
Dessa forma, não sendo suficientes os mecanismos de segurança na rede como um todo, estabelecemos medidas de segurança nas comunicações também, como no correio eletrônico. Este (e-Mail) utiliza vários mecanismos para que nossos dados cheguem o mais possível seguro em seu destino. Faz uso de protocolos como SMTP (Simple Mail Transfer Protocol) que é considerado fraco, S/MIME (Secure Multipurpose Internet Mail Extensions) e PGP (Pretty Good Privacy) que é destinado à criptografia de e-mail pessoal.
O que está muito em uso são os Firewall’s, dispositivos que funcionam como uma barreira de proteção contra invasores. Existem tanto na forma de software como de hardware, ou na combinação de ambos.
Como exemplo de bons firewall’s domésticos e gratuitos, podemos citar:
– Comodo Firewall
– Zone Alarm
– Sygate Personal Firewall
Fontes:
– Redes de Computadores
Andrew S. Tanenbaum
4ª edição, 2003.
– Redes de Computadores e a Internet: uma abordagem Top-Down
James F. Kurose, Keith W. Ross
3ª edição, 2006.
– Redes de Computadores, das LANs, MANs e WANs às Redes ATM
O código aberto é um software que disponibiliza seu código-fonte a todos os usuários. Apesar de esses softwares possuírem boa qualidade, a gratuidade é o principal atrativo. Mas há certos critérios para do código aberto:
• Redistribuição livre; a licença do código aberto não deve de nenhuma forma cobrar royalties ou qualquer outro tipo de custo para venda. • Código fonte; o software deve agregar o código-fonte e deve permitir a distribuição na forma de código fonte e compilada. • A licença não deve discriminar qualquer tipo pessoa ou ramos de empreendimentos específicos.
Atualmente, até o governo concorda que o uso de softwares livres é uma excelente opção, em especial por proporcionar boa economia para os cofres públicos. Além disso, a liberação dos códigos dos programas desenvolvidos por órgãos oficiais é considerada um bem para a população brasileira. Realmente, a liberação do código-fonte desses programas gera grandes benefícios à população, destacando-se os programas de Educação a Distância o e-Pronfo (desenvolvido pelo Ministério da Educação), certificação digital criado pelo Instituto Nacional de Tecnologia da informação (ITI), outros sistemas desenvolvidos pela EMBRAPA também estão na lista de liberação.
Os programas mundiais mais utilizados que possuem o código aberto são;
• Mozilla Firefox • Perf • Apache HTTP Server • Linux • OpenOffice • Gimp • Amule
Fonte: Eliene Percília, Equipe Brasil Escola http://www.brasilescola.com/informatica/codigo-aberto.htm
A sigla MP3 significa MPEG 1 Layer-3 e se trata de uma forma de compressão de dados de áudio muito usada atualmente. Durante muito tempo, empresas de telefonia, gravadoras, emissoras de TV, que utilizam o áudio como instrumento de trabalho, conviviam com o problema da perda de qualidade do áudio gravado, sendo que a cada reprocessamento do mesmo, essa perda se acentuava.
Vários estudos foram desenvolvidos até surgir o MP3. O estudante Karlheinz Brandenburg, da Universidade Erlangen-Nuremberg na Alemanha, elaborou o estudo dos princípios da psicoacústica na codificação de áudio, estabelecendo o algoritmo OCF (Optimum Coding in the Frequency Domain), que possuía várias características da atual tecnologia MP3.
Os estudos de Brandenburg evoluíram e deram origem a um novo codec de áudio chamado ASPEC (Adaptative Spectral Perceptual Entropy Coding).
O ASPEC foi enviado para a ISO (International Organization for Standardization), como uma proposta de padronização de codificação de áudio. Após testar rigorosamente a codificação, a ISO estabeleceu que Layer 1 e Layer 2 seriam formatos mais simples que o Layer 3 , de alta eficiência e com maior grau de complexidade, baseada no ASPEC. O ASPEC evoluiu e posteriormente deu origem ao codec MP3.
A característica principal e responsável pelo sucesso do MP3 é a de possibilitar a compressão do áudio com perdas quase imperceptíveis ao ouvido humano. A técnica desse tipo de compressão é eliminar os dados de áudio que o ouvido humano não consegue perceber, reduzindo grande mente o tamanho dos arquivos, sem perder a qualidade do áudio.
O MP3 é tão eficiente que pode reduzir o tamanho de uma música em até 12 vezes, sem perder nada em termos de qualidade em relação ao Cd, provocando assim, uma verdadeira revolução no mundo do entretenimento. A grande questão que envolve o MP3 atualmente é que devido ao seu sucesso e fácil compartilhamento através da internet, várias gravadoras se vêem obrigadas a mudar sua posição estratégica, visto que seus Cds perdem cada vez mais espaço.
Bluetooth é uma tecnologia de comunicação entre dispositivos de curto alcance. Em 1994, a Ericsson iniciou o desenvolvimento dessa tecnologia, pesquisando uma forma barata de comunicação sem fio entre o celular e seus acessórios. Após essas pesquisas iniciais, ficou clara a potencialidade desse tipo de conexão. Em 1998, seis grandes empresas: Sony, Nokia, Intel, Toshiba, IBM e Ericsson, realizaram um consórcio para conduzir e aprofundar o estudo dessa forma de conexão, formando o chamado Bluetooth Special Interest Group.
O nome “Bluetooth” é uma homenagem ao rei da Dinamarca e Noruega, Harald Blåtand, que na língua inglesa é chamado de Harold Bluetooth. O nome do rei foi escolhido pelo fato dele ter unificado as tribos de seu país, semelhantemente ao que a tecnologia pretende fazer: unificar tecnologias diferentes. O símbolo do Bluetooth é a união de duas runas nórdicas para as letras H e B, suas iniciais.
A tecnologia é bastante vantajosa, pois permite a comunicação entre diversos dispositivos sem a necessidade de fios. Além disso, é uma tecnologia barata. Por esses motivos, o Bluetooth ganhou popularidade, se tornando um dos principais métodos de conexão entre dispositivos da atualidade. Entre os dispositivos que podem ser conectados via bluetooth, podemos citar: telefones celulares, computadores, videogames, impressoras, scanners, mouses, teclados, etc.
A desvantagem desta tecnologia é o fato de seu alcance ser curto. Além disso, o número máximo de dispositivos conectados ao mesmo tempo também é limitado.
A tendência do mundo atual é das pessoas passarem mais tempo em seu ambiente de trabalho do que no aconchego do seu lar. Por mais que o ambiente de trabalho se torne quase como uma segunda “casa”, o funcionário não deve confundir como deve se comportar ou utilizar os equipamentos da empresa, tudo deve seguir uma linha profissional. O computador utilizado no serviço deve ser usado exclusivamente para o auxílio e para o desempenho de suas tarefas durante a carga horária de trabalho. Portanto, a empresa pode monitorar os passos do funcionário, desde que o mesmo esteja ciente disso. A ocorrência mais comum é o monitoramento do histórico de navegação, tendo unicamente o objetivo de garantir a produtividade e impedir a contaminação por vírus ou o extravio de documentação e informações confidenciais. Com a crescente utilização da internet em práticas ilícitas, as empresas estão dispensando um cuidado maior para que esse tipo de prática não ocorra em suas dependências.
Utilizar os equipamentos da empresa para fins pessoais como gravar músicas, filmes, fotos pessoais, etc., podem ser visto com desconfiança pelas empresas, pois podem contaminar o computar com qualquer tipo de vírus ou fazer com que a máquina se torne mais lenta por causa do excesso de arquivos.
O uso “livre” da internet é permitido em determinados períodos do dia como, por exemplo, pela manhã, na hora do almoço e no final da tarde, respeitando as normas da empresa, segundo o vice-presidente de Tecnologia da Associação Brasileira de Recursos Humanos de 2004 a 2007, Francisco Soelt.
O e-mail corporativo é aquele que a empresa fornece aos seus funcionários, sendo de uso exclusivo para o trabalho, podendo ser monitorado pela corporação desde que o funcionário esteja ciente do fato. Os registros de e-mails ficam armazenados por aproximadamente um ano. O e-mail com o “@nome da empresa” funciona como um papel timbrado digital e, segundo a advogada Patrícia Peck, o mau uso pode ocasionar demissão por justa causa. Devendo assim, o funcionário cumprir com as normas da empresa, dessa forma não haverá motivos para quaisquer medidas mais graves. No ano de 2000, aconteceu um dos primeiros casos julgados pelo TST (Tribunal Superior do Trabalho) relacionado ao mau uso do e-mail corporativo, tendo o funcionário da HSBC Seguros sido demitido por justa causa ao utilizar o e-mail da empresa para enviar fotos de mulheres nuas. Além de todos os esclarecimentos acima, é bom lembrar que tudo o que é escrito pode ser utilizado como prova contra o funcionário e até mesmo contra o chefe, dependendo do teor do e-mail, carta, mensagens espontâneas, etc. Se através de um e-mail você falar mal do seu chefe como, “Meu chefe é um banana...”, pode acarretar em uma punição leve até uma mais grave. Mas qualquer medida, como demissão por justa causa, só pode ser tomada se o funcionário tiver sido informado do monitoramento de suas conversas através do correio eletrônico.
Agora, se o seu desabafo for através de blogs, e outros tipos de meios, seu chefe pode processá-lo na justiça, a Constituição brasileira garante o direito da livre expressão, mas a proteção à imagem e reputação também está garantida por lei. Dessa forma, se você falar mal do seu chefe e ele se sentir ofendido pode pedir indenização, a acusação pode ser baseada nos crimes contra a honra, como a injúria, difamação e calúnia. Mas a lei não ampara somente a empresa, ela também está do lado dos funcionários, se através do e-mail ele receber qualquer mensagem caracterizada como assédio moral e/ou sexual, poderá utilizá-la como prova.
Mensagens como “Você será demitido se não cumprir com as metas”, “Estou de olho em você”, etc., são caracterizadas como assédio moral. Já no caso de e-mail contendo “Quando você vai sair comigo?”, “Você está linda hoje”, etc., caracteriza o assédio sexual. Portanto, cuidado com o teor das mensagens enviadas para chefes e subordinados.
Pen Drive ou Memória USB Flash Drive é um dispositivo de memória constituído por memória flash, com aspecto semelhante a um isqueiro. Surgiu no ano de 2000, com o objetivo de substituir o disquete, resgatar dados de computadores estragados, realizar backup com mais facilidade, abrigar determinados sistemas e aplicativos mais utilizados.
Possui diferentes capacidades de armazenamento que varia entre 64 megabytes e 64 gigabytes. Avelocidade com que um pen drive armazena um material também é variável, depende do tipo da entrada disponível no computador. Se este for bem cuidado, pode desempenhar suas funções por até dez anos.
Os pen drives, como parte da evolução tecnológica, podem ter alguns diferenciais que os tornam únicos, existem pen drives com leitores biométricos que somente copia e armazenam dados a partir da leitura de uma parte do corpo do seu proprietário, ou seja, utiliza partes do corpo (impressão digital, por exemplo) como mecanismo de identificação. Este pode gravar senha de sites, lista de favoritos e outros.
Existem ainda pen drives aromatizados, com cheiro de frutas que podem ser escolhidos, como o morango, uva, laranja e maçã verde. Há ainda aqueles com aparência de jóias para pessoas mais exigentes.
Quando os modelos de pen drives são encaixados na porta USB do computador, aparecem como um disco removível ou podem aparecer automaticamente como dispositivos removíveis. Para a utilização dos mesmos em sistemas antigos, deve-se instalar um pacote de software denominado device driver para permitir que o sistema o reconheça como disco removível.
É a falha, ou erro em um programa computacional, que o impede de se comportar como pretendido. A maioria dos erros são causados por compiladores produzindo um código inválido. Um programa no qual contenha vários erros e/ou erros que interferem seriamente na sua funcionalidade, é denominado de buggy. Os erros podem resultar em inúmeros efeitos, com níveis variando da inconveniência ao usuário do programa. Erros mais graves podem fazer com que o programa deixe de funcionar ou congele e conduza a negação de serviço.
A origem do termo bug é contraditória, pois há várias histórias para o surgimento da expressão de “erro”, a história mais aceitável é a de Thomas Edison; segundo o inventor, ocorreu uma falha na leitura de seu fonógrafo devido à presença de um inseto. Por isso, Bug passou a denominar erros de software.
Os piores erros (bugs) da história;
• Encanamento soviético em 1982;
• Accelerator Therac-25 médico de 1985 a 1987;
• Ponta de prova de espaço do navegador I em 1962.
O nome Linux surgiu da mistura de Linus + Unix. Linus é o nome do criador do Linux, Linus Torvalds. E Unix, é o nome de um sistema operacional de grande porte, no qual contaremos sua história agora, para que você entenda melhor a do Linux.
A origem do Unix tem ligação com o sistema operacional Multics, projetado na década de 1960. Esse projeto era realizado pelo Massachusets Institute of Technology (MIT), pela General Eletric (GE) e pelos laboratórios Bell (Bell Labs) e American Telephone na Telegraph (AT&T). A intenção era de que o Multics tivesse características de tempo compartilhado (vários usuários compartilhando os recursos de um único computador), sendo assim, o sistema mais arrojado da época. Em 1969, já exisita uma versão do Multics rodando num computador GE645.]
Ken Thompsom era um pesquisador do Multics e trabalhava na Bell Labs. No entanto, a empresa se retirou do projeto tempos depois, mas ele continuou seus estudos no sistema. Desde então, sua idéia não era continuar no Multics original e sim criar algo menor, mas que conservasse as idéias básicas do sistema. A partir daí, começa a saga do sistema Unix. Brian Kernighan, também pesquisador da Bell Labs, foi quem deu esse nome.
Em 1973, outro pesquisador da Bell Labs, Dennis Ritchie, rescreveu todo o sistema Unix numa linguagem de alto nível, chamada C, desenvolvida por ele mesmo. Por causa disso, o sistema passou a ter grande aceitação por usuários externos à Bell Labs.
Entre 1977 e 1981, a AT&T, alterou o Unix, fazendo algumas mudanças particulares e lançou o System III. Em 1983, após mais uma série de modificações, foi lançado o conhecido Unix System IV, que passou a ser vendido. Até hoje esse sistema é usado no mercado, tornando-se o padrão internacional do Unix. Esse sistema é comercializado por empresas como IBM, HP, Sun, etc. O Unix, é um sistema operacional muito caro e é usado em computadores poderosos (como mainframes) por diversas multinacionais.
Qual a relação entre o Unix e o Linux, ou melhor, entre o Unix e Linus Torvalds?
Para responder essa pergunta, é necessário falar de outro sistema operacional, o Minix. O Minix é uma versão do Unix, porém, gratuita e com o código fonte disponível. Isso significa que qualquer programador experiente pode fazer alterações nele. Ele foi criado originalmente para uso educacional, para quem quisesse estudar o Unix "em casa". No entanto, vale citar que ele foi escrito do “zero” e apesar de ser uma versão do Unix, não contém nenhum código da AT&T e por isso pode ser distribuído gratuitamente.
A partir daí, “entra em cena” Linus Torvalds. Ele era um estudante de Ciências da Computação da Universidade de Helsinki, na Filândia e em 1991, por hobby, Linus decidiu desenvolver um sistema mais poderoso que o Minix. Para divulgar sua idéia, ele enviou uma mensagem a um grupo pela Usenet (uma espécie de antecessor da Internet). A mensagem pode ser vista no final deste artigo. No mesmo ano, ele disponibilizou a versão do kernel (núcleo dos sistemas operacionais) 0.02 e continuou trabalhando até que em 1994 disponibilizou a versão 1.0. Até o momento em que este artigo estava sendo escrito, a versão atual era a 2.6.
O Linux é um sistema operacional livre e é uma re-implementação das especificações POSIX (padronização da IEEE, Instituto de Engenharia Elétrica e Eletrônica) para sistemas com extensões System V e BSD. Isso signfica que o Linux é bem parecido com Unix, mas não vem do mesmo lugar e foi escrito de outra forma.
Mas porque o Linux é gratuito?
Linus Torvalds, quando desenvolveu o Linux, não tinha a inteção de ganhar dinheiro e sim fazer um sistema para seu uso pessoal, que atendesse suas necessidades. O estilo de desenvolvimento que foi adotado foi o de ajuda coletiva. Ou seja, ele coordena os esforços coletivos de um grupo para a melhoria do sistema que criou. Milhares de pessoas contribuem gratuitamente com o desenvolvimento do Linux, simplesmente pelo prazer de fazer um sistema operacional melhor.
Licença GPL
O Linux está sob a licença GPL, permite que qualquer um possa usar os programas que estão sob ela, com o compromisso de não tornar os programas fechados e comercializados. Ou seja, você pode alterar qualquer parte do Linux, modificá-lo e até comercialiazá-lo, mas você não pode fechá-lo (não permitir que outros usuários o modifiquem) e vendê-lo.
GNU
Mas a história do Linux não termina por aqui. É necessário também saber o que é GNU. GNU é um projeto que começou em 1984 com o objetivo de desenvolver um sistema operacional compatível com os de padrão Unix. O Linux em si, é só um kernel. Linus Torvalds, na mesma época que escrevia o código-fonte do kernel, começou a usar programas da GNU para fazer seu sistema. Gostando da idéia, resolveu deixar seu kernel dentro da mesma licença.
Mas, o kernel por si só, não é usável. O kernel é a parte mais importante, pois é o núcleo e serve de comunicador entre o usuário e o computador. Por isso, com o uso de variantes dos sistemas GNU junto com o kernel, o Linux se tornou um sistema operacional.
Mas você pode ter ficado confuso agora. O que é o Linux então? O que é GNU? Simplesmente, várias pessoas uma versões modificadas dos sistemas GNU, pensando que é o Linux em si. Os programadores que trabalham com ele, sabem que o Linux, é basicamente o kernel, conforme já foi dito, mas todos, chamam esse conjunto de Linux (há quem defenda o uso de GNU/Linux).
Finalizando, o projeto GNU é um dos responsáveis pelo sucesso do Linux, pois graças à “mistura” de seus programas com o kernel desenvolvido por Linus Torvalds, o Linux vem mostrando porque é um sistema operacional digno de habilidades insuperáveis por qualquer outro sistema.
Meu nome é Guilherme Augusto Dapper, tenho 15 anos e resido em São José do Inhacorá. Curso o Ensino Médio na Escola Estadual de Ensino Médio Madre Madalena. Estou realizando o curso Técnico em Informática na SETREM, a minha turma do 1º ano é CTI2010VC1.
Na minha opinião o Curso possiblita várias oportunidades de emprego e abre as portas para o mercado de trabalho, pois a informática tem uma importância muito grande em todas as profissões, o curso capacita a realizar muitas atividades relacionadas a área da Informática. Procurei o Curso tanto para me aperfeiçoar na área como por gostar da mesma.