segunda-feira, 29 de junho de 2009

Configurando meu computador

Como eu já falei em uma postagem anterior, o BIOS é um programa que faz a leitura e a localização dos itens de hardware do computador e permite a manipulação de suas configurações. Neste post o assunto é o setup da BIOS.

O setup da BIOS é aquele programa que aparece quando pressionamos a tecla “delete” durante a inicialização do computador. O modo como ele aparece pode variar de acordo com o modelo ou o fabricante da placa-mãe, mas todos funcionam do mesmo modo.

No meu PC, o setup se apresenta dividido em cinco partes:

1. Main

2. Advanced

3. Power

4. Boot

5. Exit


Quando se escolhe a opção Main aparecem as seguintes subdivisões:

· System Time: Configurações de hora.

· System Date: Configurações de data.

· Legacy Diskette A: Configurações do drive de disket.

· Os itens de IDE: Configuram os barramentos das unidades de aramazenamento internas do PC (Gravadores de CD e DVD, HD), elas aparecem como IDE MASTER ou IDE SLAVE.

· System Information: Mostra as informações relativas ao processador, à memória e ao próprio software da BIOS.


Na opção Advanced aparece:

· USB Configuration: Ativa/Desativa portas USB. Como a BIOS faz a leitura dos itens de Hardware conectados ao computador este sub-menu permite que itens conectados a determinadas portas sejam ou não encontrados durante a inicialização.

· CPU Configuration: Configurações do Processador e dos dispositivos de controle da temperatura.

· OnBoard Device Configuration: Dispositivos onboard tais como placa de vídeo, LAN e portas seriais e paralelas.


Na opção Power: Configurações de energia, principalmente por parte do monitor.


Opção boot: Local do boot de inicialização e configurações de segurança como a definição e a alteração de senha.


E por último a opção Exit:

· Exit & Save Changes: Sair e salvar modificações.

· Exit & Discard Changes: Sair sem salvar as modificações.

· Discard Changes: Desfazer as modificações.

· Load Setup Defaults: Retornar às configurações originais da BIOS.



Jonas Santos Bezerra

segunda-feira, 22 de junho de 2009

O perfil de um bom professor

O professor geralmente é tido como aquele que ensina através da transmissão de informações, de conhecimentos, porém esse conceito vem mudando muito com o passar dos anos principalmente por conta das mudanças que ocorreram, e ocorrem, na sociedade, mudanças essas que acabam por se refletir na educação, o modelo citado, por exemplo é o de um professor típico da época da Primeira Revolução Industrial.

Paulo Freire foi, por exemplo, um grande crítico do “professor bancário” que, segundo ele, depositava conhecimentos no aluno e realizava testes para verificar o saldo, ou melhor dizendo, o professor que apenas repassa o conhecimento “mastigado” ao aluno esperando que este o absorva.

A postura de um professor ideal esperada por Paulo Freire e, acredito eu, pela maior parte da sociedade atual é de uma pessoa que estimule o aluno a pesquisar para descobrir e assim adquirir conhecimentos por seus próprios métodos, no entanto isso pode acabar gerando uma contradição: Para que então servirá o professor se o aluno deve aprender por conta própria?

Seguindo essa linha de raciocínio, há quem acredite que o professor será uma figura desnecessária no futuro, a minha opinião sobre o assunto é bem diferente. É certo que hoje há um maior acesso à informação por parte das pessoas, principalmente através da internet, mas quantidade nem sempre quer dizer qualidade, em outras palavras: mesmo que o aluno possua esse acesso às informações como saber quais as informações corretas, as úteis, e quais aquelas que não o são? Aqui se faz necessário um novo modelo professor que deve mediar a relação que ocorre entre os alunos e a fonte de informações e, ainda mais importante, deve fornecer as ferramentas para que o aluno possa construir uma base sólida para o seu desenvolvimento intelectual.

Resumindo o perfil necessário a um professor dos dias atuais é o de um professor mediador de conhecimentos, um professor orientador que estimule o aluno a buscar o conhecimento. Tudo isso se aplica ao professor que trabalha com tecnologia da informação, pode-se citar, por exemplo, um professor de programação: ele pode passar aos alunos os comandos de uma linguagem, alguns métodos e ferramentas, mas o ato de programar exige uso do raciocínio e o professor, por melhor que seja ele, nunca conseguirá ensinar uma pessoa a raciocinar, afinal cada cabeça é uma cabeça, cada pessoa tem um modo de pensar diferente e de resolver problemas de maneira diferente, tentar impor um modelo de pensamento acarretaria na verdade em grande prejuízo intelectual.

Ainda com exemplo de um professor de programação: é grande o número de pessoas que aprendem a programar por conta própria, na nossa turma aliás já haviam algumas pessoas assim, no entanto sempre há algo de novo para elas aprenderem sem contar que, às vezes, até mesmo um professor pode aprender algo novo com seus alunos.

Os professores, não só o de T.I como todos os outros, têm de ajudar os alunos nessa busca pelo conhecimento sem no entanto agir como o professor “bancário” e também sem podar-lhes as idéias. O bom professor não dá respostas, mas sim perguntas e ferramentas para resolvê-las.

domingo, 31 de maio de 2009

Linguagens de Programação

Esta semana devemos falar sobre duas linguagens de programação à nossa escolha, eu decidi falar sobre Erlang e Euphoria:


Erlang


Erlang é uma linguagem de programação que foi criada no ano de 1987 pela Ericsson (seu nome é a abreviação de Ericsson Language), porém é de código aberto. É ótima para o gerenciamento de processos, mesmo sendo uma linguagem de uso geral, ou seja, serve para várias aplicações diferentes, e possui multi-paradigma, dentre os quais está o funcional.

Possui algumas características interessantes como a execução de programas através de um código interpretado através de sua máquina virtual e a presença de um compilador que transforma o traduz o programa para o código nativo, porém esta última opção não é compatível com todas da plataformas.


Euphoria


Euphoria (End User Programming with Hierarchical Objects for Robust Interpreted Applications) foi criada em 1993 por Robert Craig. Ela foi bastante influenciada por outras linguagens tais como Basic, C, e C++. É uma linguagem de alto-nível (assemelha-se a comunicação humana) e também possui um alto nível de abstração, é multi-paradigmada: apresenta orientação a objetos, programação estruturada e programação procedural e é de domínio público.

Euphoria é uma excelente linguagem para a construção de jogos, pois ela possui suporte à programação multitarefa, ou seja, ela é capaz de executar várias tarefas diferentes todas ao mesmo tempo.

Ela possui algumas características bem interessantes como a caso-sensibilidade, o que quer dizer que, diferentes de outras linguagens como Pascal por exemplo, Euphoria faz distinção entres os caracteres maiúsculos e minúsculos. E conta ainda com uma sintaxe clara e relativamente simples.


Jonas Santos Bezerra

sábado, 23 de maio de 2009

Desvendando a grade Curricular do Curso de Ciências da Computação

Durante esta semana, cada uma dos “blogueiros” da turma de C.C. 2009.1 deverá falar sobre três diferentes disciplinas da nossa grade curricular, descrevendo-as e, depois, analisando se e como elas estão ligadas aos desafios propostos pela SBC. As três que eu escolhi foram: Métodos e Técnicas de Pesquisa (1º Período), Banco de Dados (5º Período) e Desenvolvimento de Software (5º Período).

A disciplina Métodos e Técnicas de Pesquisa trata de ensinar a trabalhar cientificamente e a fazer pesquisas, é uma disciplina essencial em se tratando de um curso de Ciências e se relaciona praticamente com todos os desafios da Computação uma vez que não há como a ciência avançar sem pesquisa, sem a procura por novas respostas ou mesmo de novas perguntas.

Banco de Dados lida com o modo como as informações são armazenadas, organizadas, relacionadas e produzidas e essas informações podem ser desde as mais simples como os endereços eletrônicos dos seus amigos até os dados de contas bancárias e os projetos militares dos U.S.A., essa brincadeira serve para ilustrar o quão úteis e versáteis são os bancos de dados. Essa disciplina se relaciona com o primeiro desafio da SBC (“Gestão da Informação em grandes volumes de dados multimídia distribuídos”), pois aumenta cada vez mais o número de informações que circulam nos dias de hoje graças às TIC1 e deve-se, portanto, encontrar meios mais eficientes de gerenciamento que permitam o que os dados mais heterogêneos sejam armazenados, disponibilizados, protegidos e assim como também se espera que “se separe o joio do trigo”, ou melhor, dizendo, que se separe as informações úteis daquelas irrelevantes.

Desenvolvimento de Software, como o próprio nome já indica, essa disciplina trata do processo de criação de um software, de suas atualizações, seu ciclo de vida, as ferramentas necessárias à sua criação, etc. A disciplina se relaciona, a meu ver, com o quinto desafio da SBC (“Desenvolvimento tecnológico de qualidade: sistemas disponíveis, corretos, seguros, escaláveis, persistentes e ubíquos”) e esse é um dos principais objetivos de um Bacharel em Ciências da Computação: produzir softwares de qualidade.

1. Tecnologias da Informação e Comunicação.


Jonas Santos Bezerra

domingo, 10 de maio de 2009

Novidades em Hardware - Blu-Ray

As tecnologias ficam cada vez melhores e mais sofisticadas com o passar do tempo, a todo instante vemos novos tipos de programas de computador, novos aparelhos eletrônicos, etc., e nós, os alunos de Ciências da Computação turma 2009.1 da UFS, ficamos incumbidos pelo professor Uriel Marx, da disciplina Fundamentos da Computação, de listar algumas dessas novidades e, neste post, eu falarei sobre o blu-ray.

O blu-ray é considerado o sucessor do DVD, pois ele é um disco óptico capaz de armazenar mais informação que este (cerca de 25 GB contra 4.7 GB do DVD) e com maior qualidade.

“- Ok. Aumentou a capacidade de armazenamento, e daí?”

Daí que não foi só o que aconteceu, para se chegar a esse resultado foi preciso uma grande mudança nas tecnologias utilizadas até então. Alguém aí lembra de óptica? É aquele assunto do Ensino Médio que se pensava não servir para nada além de te ajudar (ou te ferrar) no vestibular, pois bem, ele é um dos pontos importantes do nosso assunto.

Para começar, as lentes de CD e DVD que utilizamos hoje são gravadas e lidas com lasers (feixes de luz que possuem apenas um comprimento de onda e que percorrem grandes distâncias sem se dissipar) o mesmo ocorre com o blu-ray, a não ser pelo fato de que CDs e DVDs são gravados com lasers de luz vermelha e o blu-ray com lasers de luz azul-violeta (daí o nome blu-ray, blue: azul e ray: raio). A explicação para isso se encontra no fato de que a luz azul possui um comprimento de onda menor que o vermelho e pode então gravar em uma área de mídia menor.

Já a qualidade da gravação depende da difração da luz na lente utilizada, quanto menor a difração melhor a gravação e por ter um comprimento de onda inferior ao da vermelha a luz azul sofre um difração menor, a prova disso está em que apesar de ter mais de 20GB de vantagem em relação ao DVD, o disco blu-ray armazena a mesma quantidade de horas de um filme que ele, porém são quatro horas de altíssima resolução de imagens e qualidade de som.

O blu-ray ainda vem com uma vantagem a mais sobre os outros discos ópticos, ele possui um substrato (desenvolvido pela TDK) que protege contra os arranhões tão comuns.

Antes havia um concorrente para o blu-ray da Sony que era o HD DVD da Semp Toshiba, essas duas gigantes vinham brigando para ver qual padrão seria o sucessor do DVD, briga essa da qual a Sony saiu vitoriosa por vários motivos, entre eles o playstation 3 (também da Sony) campeão de vendas e que possui leitor de blu-ray, e o apoio da maioria dos grandes estúdios de cinema, como a Warner Bros, a Walt Disney Company e a MGM.


Para outras novidades, veja os blogs dos outros alunos, listados no blog da disciplina.


Jonas Santos Bezerra


Referências:

Wikipédia: Blu-ray
Além de diversas apresentações do Programa Olhar Digital da RedeTv e algumas edições do Jornal Nacional da Rede Globo.

O menor transistor de diamante da atualidade

O transistor é uma invenção do final da década de 40, que revolucionou a eletrônica. Substituindo as válvulas ele permitiu vários avanços na era tecnológica, inclusive nos dias de hoje.

A invenção do transistor se deu por conta da tentativa de se melhorar as válvulas, um dos meios utilizados foi a busca de novos materiais para construí-las e essa busca levou a descoberta de que alguns compostos podem ser condutores ou isolantes dependendo das condições em que se encontram e foram então classificados como semi-condutores, que foram essenciais para a invenção do transistor.

Os primeiros transistores eram feitos de germânio e possuíam três pólos, um negativo, um positivo e um que servia para fazer o controle do dispositivo. Quando não havia tensão elétrica no filamento de controle a energia simplesmente não fluía entre os pólos e o inverso acontecia quando houvesse essa tensão (isso está relacionado a linguagem binária dos computadores). Depois, o germânio foi substituído pelo silício que é utilizado até os dias de hoje.

A principal aplicação dos transistores nos computadores é dentro dos processadores. Desde sua invenção até os dias atuais os transistores diminuíram muito de tamanho permitindo o surgimento do microchip, do qual a Intel foi a primeira fabricante.

E onde a invenção de um transistor de diamante entra nessa história?

Quanto maior a quantidade de transistores em um processador, maior a sua capacidade de processar os dados, o primeiro processador possuía 2000 deles, o Core 2 Duo possui 291.106, e eles ainda são feitos de silício.

Muitas empresas ligadas à área no mundo procuram meios de construir transistores cada vez menores pelas razões explicitadas acima e continuam procurando por novos materiais para substituir o silício (O diamante é apenas um dos materiais pesquisados, existem ainda o grafeno, os nanotubos de carbono e os semicondutores de alto dielétrico e estima-se que essas tecnologias cheguem ao mercado em alguns poucos anos).

Até alguns dias atrás o menor transistor de diamante do mundo media 100nm e era de fabricação japonesa, mas, recentemente, pesquisadores escoceses criaram um que mede apenas 50nm e possui uma porta bem menor (que eu não expliquei antes, mas é o elemento que faz o papel do terceiro pólo de um transistor e quanto menor essa porta melhor o funcionamento do mesmo) e essa invenção tem muito para dar certo graças, principalmente, ao avanço da nanotecnologia.


Jonas Santos Bezerra

Referências:
http://www.inovacaotecnologica.com.br/noticias/noticia.php?artigo=menor-transistor-de-diamante-do-mundo-abre-caminho-para-novas-tecnologias&id=010110090506
http://pt.wikipedia.org/wiki/Transístor

domingo, 3 de maio de 2009

Regulamentação das Profissões de TI

Até o presente momento, no Brasil, o exercício de profissões ligadas à tecnologia de informação é livre, ou seja, independe da posse de certificados e da filiação a conselhos de profissão, e isso se deve, em parte, ao fato de que quando esse tipo de tecnologia chegou ao país não havia pessoas capacitadas, nem cursos de formação nacionais, impelindo aqueles que desejavam trabalhar na área a fazer cursos no exterior ou a aprender sozinhos, desse modo, muitos profissionais de outras áreas (principalmente engenheiros) começaram a fazer parte dos profissionais de TI brasileiros.

Os primeiros computadores brasileiros (que eram importados) datam da década de 50, mas foi apenas nos 70 que foram criados os primeiros cursos de graduação em TI e foram realizadas as primeiras medidas governamentais para o desenvolvimento industrial da informática que, a partir de então, expandiu-se muito rapidamente.

Com essa expansão, surgiu a idéia de se regulamentar a profissão, delimitando o seu exercício àqueles que possuíssem diploma de curso superior, assim como ocorre em outras profissões como medicina, engenharia, advocacia, etc., e isso acabou gerando uma divisão na sociedade entre aqueles que são a favor e os que são contra.

Os setores que são a favor afirmam que a criação de um conselho de profissão protegeria a sociedade do mau profissional, através da restrição de sua prática às “pessoas capacitadas” (leia-se diplomadas) e filiadas ao respectivo conselho.

Grande parte da sociedade, no entanto, é contra a regulamentação da profissão, inclusive a própria SBC, defendendo o livre exercício e a regulamentação através do mercado. Esses setores afirmam que somente a posse de um diploma não garante a qualidade do produto e que um conselho não tem como identificar um mau profissional, além do mais a informática é uma área multidisciplinar e necessita de profissionais flexíveis.

Essa questão da regulamentação começou há algum tempo e vez por outra volta às pautas de discussão no Congresso Brasileiro, os dois principais projetos de lei da atualidade são o projeto de lei 7109-2006 do deputado federal Bonifácio Andrada (a favor) e o projeto de lei 1561-2003 proposto pela SBC e acolhido pelo deputado federal Ronaldo Vasconcellos (contra).


Opinião pessoal: Eu sou contra a regulamentação da profissão, concordo que o diploma é um diferencial, mas que não garante a competência do profissional. Em vários outros países (E.U.A., Alemanha, Espanha, etc.) o exercício de profissões correlatas é livre e tem dado muito certo. No Brasil, o mercado deve sim regular a profissão, muitas pessoas da área afirmam que com essa liberdade os formados perdem espaço no mercado de trabalho porque tem de concorrer com “um grande técnico que fez um sisteminha em Clipper aqui e outro ali ou instalou meia dúzia de Windows e montou uns computadores cinza aqui e acolá” (fórum de discussão), eu acho essa afirmação nada mais nada menos que grotesca, não há como alguém que domine uma gama de conhecimentos específicos (como alguém que tenha uma boa graduação) concorrer com alguém assim. A regulamentação criaria uma reserva de mercado que protegeria os graduados, no entanto se a graduação foi de qualidade não se necessita de proteção. Como um último argumento cito ainda que o Brasil não está conseguindo formar profissionais em quantidade suficiente para suprir as demandas do mercado, e esse déficit é suprido em grande parte por pessoas sem formação em TI, mas extremamente capazes e competentes no que fazem.


O link do fórum de discussão acima traz muitas opiniões diferentes e interessantes sobre o assunto, é um ótimo local para se ter contato com as diversas opiniões sobre o tema.

Jonas Santos Bezerra

domingo, 26 de abril de 2009

"Em coração de (placa) mãe sempre cabe mais um"

A placa-mãe é a parte do computador responsável por conectar todas as outras peças que o compõem, sejam elas dispositivos de memória, de entrada, de saída ou quaisquer outros, entrarei em mais detalhes no decorrer do texto.

Comecemos pelos dispositivos conectados diretamente à placa mãe (onboard) e que são comuns a todos os computadores, a saber: o chip de BIOS, o chipset, a memória RAM e o processador.

O chip de BIOS é responsável por detectar os itens de hardware do computador quando ele é ligado e serve também para dar acesso e permitir a manipulação de algumas informações do computador, como o relógio do sistema operacional, o local do boot, definição de senha e configurações de portas.

O BIOS é um software e o chip em que ele é gravado é do tipo memória ROM isso significa que o programa não pode ser desinstalado. Para entrar no menu BIOS só é preciso pressionar “delete” antes do sistema operacional ser inicializado, porém não é aconselhável fazer isso sem preparação correta porque uma alteração indevida nas configurações citadas pode gerar problemas de execução.

O chipset é na verdade um conjunto de circuitos dividido em duas partes principais, a South Bridge cuja principal função é controlar o acesso à memória e aos barramentos (locais onde as peças devem ser encaixadas) e a North Bridge que controla os periféricos. O chipset serve também para definir quais são os tipos de dispositivos de memória que a placa-mãe suporta (tanto RAM quanto ROM) e em que quantidades.

A memória RAM e processador são dois dispositivos de funções interligadas, a memória é responsável pelo armazenamento temporário dos dados para que estes possam ser manipulados pelo processador através de cálculos e decisões lógicas culminando na realização de tarefas pelo computador.

A placa-mãe possui ainda conectores para os dispositivos que não podem ficar ligados (ou não cabem) diretamente nela, como os diversos periféricos (HDs, portas USB, seriais, dispositvos de som, etc.).



Jonas Santos Bezerra

Referências:

http://www.infowester.com/motherboard.php

http://malumatos.blogspot.com/

http://www.baixaki.com.br/info/1866-Conheca-como-e-uma-placa-mae-sem-medo.htm

domingo, 12 de abril de 2009

Os desafios da computação

Baseado nos cinco desafios para a Computação propostos pela SBC, o professor Uriel Marx (da disciplina de Fundamentos da Computação – Turma A0) lançou as seguintes questões no blog da disciplina para que nós, alunos, pesquisássemos:

 I. As graduações em computação estão preparadas para formar pessoas capazes de dar conta de tais desafios?

II. A que áreas do conhecimento humano diz respeito o desenvolvimento da área de Computação?

 http://fc-ufs2009-1.blogspot.com/2009/04/sbc-e-os-desafios-da-computacao.html

  Do aluno

 I. A Computação é uma área que tem se expandido muito em todo o mundo e no Brasil não foi diferente. Segundo a SBC o país possui um dos maiores mercados internos de tecnologia de informação do mundo e grande potencial para se tornar um dos maiores exportadores de TI, mas também possui alguns entraves quanto a isso.

O maior entrave, por assim dizer, seria a falta mão-de-obra qualificada, pois o mercado atualmente necessita de uma quantidade maior de profissionais do que aquela que o país produz atualmente e deve-se levar em conta que é bastante elevada a evasão na área.

Quanto ao aspecto qualitativo a situação é muito positiva, os cursos procuram ao máximo adequar-se às exigências do MEC e as propostas da SBC e apesar de a Computação ser uma área do conhecimento que tem pouco tempo de existência se comparada a outras como a matemática e a medicina os avanços são também espetaculares.

Porém não se pode garantir que uma Universidade com excelente infra-estrutura vai formar somente bons profissionais, visto que a qualidade da formação depende muito mais do aluno em si que de qualquer outro aspecto analisado, podendo existir grandes Universidades que formem profissionais não muito bons e pequenas universidades que formem excelentes profissionais.

Na UFS, que não chega a ser uma das maiores do Brasil, por exemplo o curso de Ciências da Computação existe a menos de vinte anos e já figura entre os melhores da Região Nordeste, recebendo o conceito 4 (numa escala de 1 a 5 referente a prova do Enade) ultrapassando algumas universidades mais tradicionais como a UFBA, graças a grande esforço, tanto por parte dos profissionais quanto dos alunos envolvidos.

Pode-se concluir então que se as graduações brasileiras precisam enfrentar problemas, esses irão se referir em sua maior parte aos aspectos quantitativos.

 

II. A computação nos dias de hoje está ligada a praticamente todas as áreas do saber humano e isso é muito evidente, podemos levar em conta, por exemplo, que ela facilita a troca de informações (a comunicação em si) de uma maneira que não se imaginaria há um século atrás. Já não se pode mais tratar a computação como algo isolado, pois a nossa sociedade agora é praticamente dela.

 

Obs: Gostaria de lembrar que as respostas são de cunho pessoal, porém baseadas em diversas fontes de pesquisa. Qualquer informação que venha versar sobre o assunto é bem-vinda assim como opiniões diferentes sobre ele.

 Jonas Santos Bezerra

Referências: 

SBC

www.sbc.org.br

http://www.sbc.org.br/index.php?language=1&content=news&id=5623

http://www.sbc.org.br/index.php?language=1&subject=8&content=downloads&id=231

Instituto Nacional de Estudos e Pesquisas Educacionais

http://www.inep.gov.br/superior/enade/

http://www.inep.gov.br/download/enade/2007/CONCEITO_PRELIMINAR_Educacao_Superior.pdf

DCOMP (Departamento de Computação – UFS)

www.decomp.ufs.br

 Vida Universitária

http://www.vidauniversitaria.com.br/blog/?p=13856

sábado, 11 de abril de 2009

A SBC

A SBC é uma entidade de classe que reúne as pessoas que lidam com a Computação, sejam elas professores, estudantes, profissionais (incluindo pesquisadores), ou quaisquer outras do ramo de TI. Ela também procura estimular o ensino e a pesquisa como forma de promover o desenvolvimento tecnológico do Brasil.

A SBC é um órgão de caráter nacional, mas é composta por diversas secretarias regionais espalhadas por todo o território brasileiro como forma de facilitar a sua administração e de promover integração ao nível regional. Sergipe fica localizado na secretaria Nordeste 3, juntamente com a Bahia e Alagoas.

É importante lembrar que, diferente de órgãos como a OAB e o CREA, a SBC não regula as profissões ligadas à informática, pois acredita que estas devem ser reguladas pelo mercado, que o mercado deve separar os bons e os maus profissionais.

Desde sua criação em 1978 a SBC se preocupa e muito com o desenvolvimento tecnológico acima citado e por isso criou diversas formas de expandir o conhecimento na área, das quais as mais importantes são as publicações e os eventos. Dentre os eventos, o maior é o CSBC (Congresso da Sociedade Brasileira da Computação) realizado anualmente e que reúne profissionais e estudantes de todo o Brasil. No CSBC são discutidos os avanços da Computação e os novos desafios que devem ser enfrentados na área.


Jonas Santos Bezerra

domingo, 29 de março de 2009

A Lógica

A lógica é uma “área” da filosofia que se ocupa de estudar o pensamento e então organizá-lo e guiá-lo através de algumas regras fortemente ligadas à matemática. Ela pode se relacionar com as mais diversas áreas do conhecimento humano, inclusive na nossa área: a de Ciências da Computação.

O primeiro homem a estudar a lógica foi o filósofo grego Aristóteles, que muito contribuiu para a ampliação dos conhecimentos humanos, pois além da própria lógica, Aristóteles estudava política, biologia, metafísica, ética, dentre muitas outras ciências.

A obra em que Aristóteles fala sobre a lógica chama-se Órganon, que na verdade trata de um conjunto de escritos sobre lógica feitos por ele, mas publicados apenas após a sua morte.

A lógica Aristotélica, como é chamada, possui duas leis fundamentais e que acabam por serem complementares uma à outra, a saber: A lei da não-contradição e a lei do terceiro excluído. A primeira lei diz: para qualquer que seja uma afirmação, ela só pode ser ou verdadeira ou falsa não podendo ser os dois ao mesmo tempo. A segunda lei é bem parecida com a primeira, mas ela completa dizendo que não pode existir um terceiro valor, ou seja, não pode haver um “meio termo”.

George Boole foi outro grande contribuinte para o desenvolvimento da Lógica. Através de seus estudos ele conseguiu transpor a lógica para a álgebra, criando o que chamamos de álgebra booleana. Esse tipo de álgebra muito contribuiu para o desenvolvimento da computação, pois possibilitou as operações com o sistema de numeração binário.

Outro grande contribuinte foi Gottlob Frege, considerado por muitos um dos maiores filósofos matemáticos de todos os tempos e um dos pais da lógica moderna. Frege sistematizou a lógica, reorganizou os aspectos da lógica já existente, implantou novos conceitos (como o de quantificadores) e acabou por criar um sistema que facilitava seus estudos e aplicações. O método por ele desenvolvido acabou com muitos dos erros que eram cometidos pelos matemáticos quando da demonstração de fórmulas, surgia assim a lógica de predicados.


Referências:

http://www.mat.ufmg.br/~elaine/IC/IC03.pdf

www.mundodosfilosofos.com.br

http://pt.wikipedia.org/wiki/

http://www.consiste.dimap.ufrn.br/~david/ENSEIGNEMENT/SUPPORT/0805-logica-predicados.pdf

Motivo da escolha do curso

As áreas de ciências exatas e tecnológicas sempre me fascinaram, eu sabia que a carreira universitária que eu fosse trilhar seguiria esse caminho, mesmo não sabendo ao certo qual curso fazer.

Certa vez, uma professora do meu primeiro grau propôs a todos os alunos da minha turma que pesquisassem quais eram os cursos oferecidos pelas universidades brasileiras, quais as características de cada um deles, etc., durante a pesquisa eu me interessei bastante pelos cursos de Engenharia Mecatrônica, Biotecnologia, Ciências da Computação e Engenharia da Computação, mas foi somente no primeiro ano do ensino médio que eu me decidi por Ciências da Computação, pois analisando novamente eu percebi que era o curso ao qual eu tinha maior aptidão.

Sei que o curso não será fácil e que terei de enfrentar várias dificuldades talvez até mais do que eu possa imaginar, mas não me arrependo da minha decisão, o curso já demonstrou ser bem mais do que eu esperava e eu vou dar o melhor de mim para concluí-lo da maneira certa.