terça-feira, 27 de março de 2012

Arquitetura de computadores

A evolução da informática foi caracterizada pelo desenvolvimento de computadores com características as mais diversas, traduzidas pelos diferentes parâmetros, cada vez mais conhecidos da maioria de usuários de computador: a CPU adotada, a capacidade de memória, a capacidade do disco rígido, a existência de memória cache e outros menos conhecidos. A definição destes parâmetros e a forma como os diversos componentes de um computador são organizados, define aquilo que é conhecido por arquitetura de computador e vai determinar aspectos relacionados à qualidade, ao desempenho e à aplicação para a qual o computador vai ser orientado.

Existem vários modos de uso do termo, que podem ser usados referindo-se a:

* O desenho da arquitetura da CPU do computador, o seu conjunto de instruções, "addressing modes" e técnicas, tais como paralelismo SIMD e MIMD.
* Arquiteturas de hardware mais generalizadas, tais como computação em cluster e arquiteturas NUMA (acesso não-uniforme à memória).
* A utilização menos formal do termo refere-se a uma descrição dos requisitos (especialmente requisitos de velocidades e interligação) ou implementação do design para as várias partes de um computador, tais como memória, placa-mãe, periféricos eletrônicos ou, mais frequentemente, CPU.
* A arquitetura é frequentemente definida como o conjunto de atributos da máquina que um programador deve compreender para que consiga programar o computador específico com sucesso, ou seja, para que consiga compreender o que o programa irá fazer aquando da sua execução. Por exemplo, parte da arquitetura são as instruções e o raio de operadores manipulados por elas.

De uma maneira semelhante, a frequência em que o sistema opera não é incluída na arquitetura. Esta definição revela as duas principais considerações dos arquitetos de computadores: (1)desenhar hardware que se comporta como o programador pensa que se irá comportar, (2)utilizar implementações existentes de tecnologias (por exemplo, semicondutores) para construir o melhor computador possível. A 2ª consideração é frequentemente referida como a microarquitetura.

Índice
[esconder]

* 1 História
* 2 Memória virtual
* 3 Pipeline ou segmentação das instruções
* 4 Ligações externas

[editar] História

A expressão "Arquitetura de computadores", na literatura, pode ser atribuída a Lyle R. Johnson, Muhammad Usman Khan e Frederick P. Brooks, Jr. Em 1959 eram membros do departamento de Organização de Máquinas da IBM.

Johnson teve a oportunidade de escrever uma comunicação de pesquisa proprietária sobre Strech, um super computador desenvolvido pela IBM para Los Alamos Scientific Laboratory (Laboratório Nacional de Los Alamos). Na tentativa de caracterizar o seu nível desejado de detalhe, ele observou que sua descrição de formatos, tipos de instruções, os parâmetros de hardware e melhorias de velocidade foi a nível de "Arquitetura do Sistema" - Um termo que parecia ser mais útil do que "Organização de Máquina".

Posteriormente, Brooks, um dos designers do Strech, começou o capítulo 2 de um livro (Planning a Computer System: Project Stretch, ed W. Buchholz, 1962), escrevendo, "Arquitetura de computadores, como outra arquitetura, é a arte de determinar as necessidades do usuário de uma estrutura e, possível dentro das limitações econômicas e tecnológicas."

Brooks passou a desempenhar um papel no desenvolvimento do IBM System/360(agora chamado de IBM System z) linha de computadores, onde a "arquitetura" ganhou moeda como um substantivo com a definição como "o que o usuário precisa saber". Mais tarde, o mundo da informática, empregaria o termo, em formas muito menos explícitas.
[editar] Memória virtual

Outro problema recorrente envolve a memória virtual. Historicamente, a memória de acesso aleatório (RAM) foi centenas de vezes mais cara que o armazenamento mecânico rotativo, isto é, discos rígidos, num computador moderno. O processador só pode executar uma instrução que esteja na memória real. O mecanismo de Memória Virtual divide a memória real em FRAMES e divide um arquivo no disco em PÁGINAS de mesmo tamanho dos frames.
No disco existem muito mais páginas do que frames na memória. Sempre que for preciso uma página é copiada da memória virtual (arquivo em disco) para um frame da memória real. Surge a necessidade de saber quando é preciso copiar. Surge a necessidade de saber se um frame pode ser descartado ou se precisa ser recopiado para sua página correspondente no arquivo em disco. Sempre que uma instrução é executada a partir de um frame o hardware controlador de memória virtual testa se o dado a que ela se refere já se encontra em algum frame. Se for o caso, uma interrupção ocorre para que a rotina de tratamento cuide de copiar do disco para a memória real uma página completa contendo o dado necessário.
[editar] Pipeline ou segmentação das instruções

O conjunto e instruções orienta fortemente como funcionará o pipeline de instruções. A ideia é análoga a linha de produções em série, mas utilizada na execução das instruções. Primeiro divide-se as instruções em pedaços menores de forma que uma instrução em código de máquina demore muitos ciclos curtos para ser executada. Depois disso o controle do microprocessador encarrega-se de executar várias instruções ao mesmo tempo, cada uma utilizando um pedaço distinto do processador. Isto tem como objetivo que na média cada instrução demore 1 ciclo curto para ser executada. Existem diversas complicações em instruções de desvio (condicionais), que são tratadas por paralelismo de código conhecida como threading (nome comercial da Intel Hyperthreading).

Aprendizagem de máquina

A aprendizagem de máquina é um sub-campo da inteligência artificial dedicado ao desenvolvimento de algoritmos e técnicas que permitam ao computador aprender, isto é, que permitam ao computador aperfeiçoar seu desempenho em alguma tarefa. Enquanto que na Inteligência Artificial existem dois tipos de raciocínio: indutivo, que extrai regras e padrões de grandes conjuntos de dados, e dedutivo. A aprendizagem de máquina só se preocupa com o indutivo.

Algumas partes da aprendizagem de máquina estão intimamente ligadas à mineração de dados e estatística. Sua pesquisa foca nas propriedades dos métodos estatísticos, assim como sua complexidade computacional. Sua aplicação prática inclui o processamento de linguagem natural, motores de busca, diagnósticos médicos, bioinformática, reconhecimento de fala, reconhecimento de escrita, visão computacional e locomoção de robôs.

Abordagens:

* Aprendizado Supervisionado (Ex: Etiquetar)
* Aprendizado Não Supervisão (Clustering, Estatística)
* Aprendizado por Reforço (Informação de entrada como feedback)
* Transdução (Semelhante ao Supervisionado, mas sem uma função explícita)
* Aprendizado Multitarefa

[editar]

segunda-feira, 26 de março de 2012

Televisão digital

A Televisão digital, ou TV digital, usa um modo de modulação e compressão digital para enviar vídeo, áudio e sinais de dados aos aparelhos compatíveis com a tecnologia, proporcionando assim transmissão e recepção de maior quantidade de conteúdo por uma mesma frequência (canal) podendo obter imagem de alta qualidade (alta definição).

O padrão em operação comercial transporta cerca de 20 Mbps. Em termos práticos, isto é o equivalente a 3 programas em alta definição, que ocupam 6 Mbps cada, ou 7 programas em definição padrão, que consomem em média 2,8 Mbps cada.
HistóriaVer artigo principal: História da televisão digital
A história da televisão digital inicia-se nos anos 1970, quando a direção da rede pública de TV do Japão Nippon Hoso Kyokai (NHK) juntamente com um consórcio de cem estações comerciais, dão carta branca aos cientistas do NHK Science & Technical Research Laboratories para desenvolver uma TV de alta definição (que seria chamada de HDTV).

[editar] Inovações técnicas e tecnológicas da TV Digital[editar] Qualidade técnica de imagem e somResolução de imagem - Os primeiros estudos sobre a melhoria da resolução da imagem foram realizados na universidade de Massachusetts, onde os aparelhos receptores de TV tinham apenas 30 linhas de vídeo. Ao longo das décadas de 1930 e 1940, os novos aparelhos já apresentavam 240 linhas de vídeo. Atualmente, um monitor analógico de boa qualidade apresenta entre 480 e 525 linhas. Na televisão digital de alta definição, chega-se a 1080 linhas com o padrão HDTV.
Qualidade do som - A televisão iniciou com som mono (um canal de áudio), evoluiu para o estéreo (dois canais, esquerdo e direito). Com a TV digital, passará para seis canais (padrão utilizado por sofisticados equipamentos de som e home theaters).
Sintonia do Sinal sem fantasmas - A TV digital possibilitará a sintonia do sinal sem a presença de fantasmas e com qualidade de áudio e vídeo ausentes de ruídos e interferências.
[editar] InteratividadeInteratividade Local - O conteúdo é transmitido unilateralmente para o receptor, de uma só vez. A partir daí, o usuário pode interagir livremente com os dados que ficam armazenados no seu receptor. Um novo fluxo de dados ocorre apenas quando é solicitada uma atualização ou uma nova área do serviço é acessada.
Interatividade com Canal de Retorno Não-Dedicado - A interatividade é estabelecida a partir da troca de informações por uma rede à parte do sistema de televisão, como uma linha telefônica. O recebimento das informações ocorre via ar, mas o retorno à central de transmissão se dá pelo telefone.
Interatividade com Canal de Retorno Dedicado - Com a expansão das redes de banda larga, pode ser desenvolvido um meio específico para operar como canal de retorno. Para isso, o usuário da TV digital necessitaria não apenas de antenas receptoras, mas também de antenas transmissoras, e os sistemas, a capacidade de transportar os sinais até a central de transmissão.
[editar] AcessibilidadeFacilidades para Gravação de Programas - A introdução de sinais codificados de início e fim de programas facilitará o acionamento automático de videocassetes ou gravadores digitais dos usuários.
Gravadores Digitais Incluídos nos Receptores ou Conversores - Alguns modelos de aparelhos receptores ou mesmo os conversores poderão incorporar gravadores digitais de alto desempenho (semelhantes aos discos rígidos utilizados nos computadores) que poderão armazenar muitas horas de gravação e permitir que o usuário escolha a hora de assistir o programa que desejar.
Múltiplas Emissões de Programas - A transmissão de um mesmo programa em horários descontínuos (um filme, por exemplo, iniciando de 15 em 15 minutos) em diversos canais permitirá que o usuário tenha diversas oportunidades para assistir ao programa desejado a um horário escolhido.
[editar] RecepçãoOtimização da Cobertura - A tecnologia digital possibilita flexibilidade para ajustar os parâmetros de transmissão de acordo com as características geográficas locais.
Em áreas acidentadas ou com muitos obstáculos (grandes cidades com muitos edifícios, por exemplo) pode ser utilizado o recurso da transmissão hierárquica. Com este recurso, um programa pode ser transmitido (com sinal menos robusto) de modo a ser recebido em locais mais favoráveis, através de antenas externas, por exemplo, enquanto outro programa ou o mesmo programa do mesmo canal é transmitido (com sinal mais robusto) com uma menor resolução de imagem para recepção em todos os pontos da área de prestação do serviço.
Isto permite que terminais portáteis ou móveis (instalados em veículos) possam receber sem problemas as transmissões.
[editar] Padrões DigitaisApresentadas as principais características de transmissão e recepção dos primeiros padrões de radiodifusão digital de sons e imagens, a saber:

ATSC: acrônimo de Advanced Television System Committee, é o padrão norte-americano desenvolvido a partir de 1987;
DVB-T: acrônimo de Digital Video Broadcasting, é o padrão europeu projetado a partir dos anos 80.
ISDB-T: acrônimo de Integrated Services Digital Broadcasting Terrestrial, é o padrão japonês projetado a partir dos anos 70, é a evolução do sistema DVB-T
[editar] Meios de transmissão
Uma antena que recebe sinais de TV digital por satélite. Na Europa, a SKY TV já transmite em HDTVAssim como a televisão analógica convencional, o sinal digital viaja por diferentes meios - que deverão continuar coexistindo após a adoção do padrão digital.[1]

Terrestre - Transmitido por ondas de radiofrequência, os sinais digitais são transmitidos no ar e necessitam de antenas e receptores apropriados para a sua recepção. Este é provavelmente o meio mais aguardado da televisão digital já que seu custo econômico é o mais baixo, não há necessidade de pagar assinaturas bastando às grandes emissoras de televisão no país e suas retransmissoras efectuarem as devidas adaptações, exigindo também da parte dos consumidores, a aquisição de novos receptores.
No Brasil, algumas companhias de televisão por assinatura já transmitem a sua programação usando um sistema semelhante denominado MMDS. Em Portugal, a televisão digital terrestre foi inaugurada em 29 de abril de 2009, adotando, como no resto da Europa, o sistema DVB-T (Digital Video Broadcasting - Terrestrial).
Satélite - Transmite o sinal de televisão e rádio através da infraestrutura de satélite a maioria das transmissões utiliza o sistema DVB-S desenvolvido especificamente para este uso, tendo a facilidade de se transmitir vários canais em um único sinal pela robustez e compressão dos sinais digitais.
TV Digital via satélite no Brasil
Já em uso no Brasil desde 1996 através das TVs por assinatura de banda Ku (SKY, Tecsat e DirecTV) este sistema permite a captação do sinal digital pelos utilizadores residentes em regiões remotas. Desde 1997 existe um satélite público da Embratel transmitindo sinais digitais a antenas parabólicas específicas, denominado de banda C digital sem custos financeiros para a recepção.

Atualmente, existem vários satélites com transmissões digitais abertas, chamados de sistemas Free to air (FTA), em formato DVB encontradas em satélites como a série BrasilSat (PAS B1, PAS B2, PAS B3 e PAS B4), Nahuel, Amazonas, Hispasat, entre outros, com programação variada, desde canais abertos (Rede Minas, TV Record, RedeTV!), emissoras regionais, rádios e canais estrangeiros.

Com uma antena parabólica e um receptor de satélite que receba sinal digital em banda C e apontando a antena para os satélitesStarOne C2 e Brasilsat B4 os canais disponíveis são: RedeTV!, MTV, Rede Super, TV Gazeta, SBT, Band, Rede 21, Mix TV, TV Cultura, TV Mundial, CineBrasil, SescTV, TV Educativa, Record, Rede Familia, CNT, TV Shop Tour, TV Rá-Tim-Bum, Rede Globo, entre outros canais.
A qualidade da imagem é digital (igual da TV a cabo), porém algumas emissoras ( Globo, SBT, Record, MTV, Band e RedeTV! ) também exibem alguns programas em HD ( alta definição ), etc.

Cabo - Utiliza redes de cabo convencionais televisão a cabo para transmitir os sinais digitais que chegam à casa do assinante via operadoras de televisão por assinatura.
TV a cabo digital no Brasil
Implantado a partir 2004 em grandes cidades como São Paulo,Rio de Janeiro e Recife este meio de transmissão para televisão digital é atualmente o mais difundido em todo o mundo.

Normalmente as operadoras de televisão a cabo recebem quase todos os canais através de satélite. Após a recepção, filtragem e amplificação poderão existir dois processos para a transmissão no cabo, sendo um deles a codificação analógica dos canais (canais premium, pay-per-view, conteúdo explícito para adultos, etc) criando-se um empacotamento, modulação e depois a transmissão no cabo.

Alguns canais, dependendo do interesse da operadora podem ser transmitidos diretamente no cabo sem a codificação analógica, como é o caso da recepção dos canais locais da cidade em que a operadora de TV a cabo se situa, os chamados canais Off Air, porém passam pelo processo de recepção, filtragem amplificação, modulação e transmissão.

Em resumo, para os canais recebidos via satélite, eles são convertidos de sinais digitais (DVB-S), para sinais analógicos e depois transmitidos no cabo.

Via Internet - Utiliza a infraestrutura de comunicação da internet geralmente denominada IPTV ou TVIP e podem ser transmitidos programas em diversos formatos utilizando o protocolo de comunicação TCP/IP.
Operadoras de TV por Internet do Brasil
Terra TV
TV IG
TV UOL
Megamax
[editar] Tipos de televisorTelevisor Analógico - Possui um sintonizador interno que permite receber as transmissões analógicas, mas não recebe transmissões digitais, necessitando, para isso, de um conversor digital (Set-Top-Box).
Televisor Digital - Possui um sintonizador interno que permite receber as transmissões digitais sem necessidade de um conversor digital. Também pode receber transmissões analógicas.
Televisor HD Ready - Possui sintonizador analógico, mas é capaz de reproduzir imagens com definição de 720 ou 1080 linhas horizontais.
Com um conversor digital ISDB-Tb, poderá exibir imagens de alta definição transmitidas pelas emissoras de TV Digital no Brasil.
Televisor HDTV - (High Definition TV ou TV de alta definição) Capaz de reproduzir imagens com definição de 720 ou 1080 linhas horizontais. Os modelos cuja definição nativa é de 1080 linhas, se possuírem a função progressive scan, podendo exibir imagens com 1080 linhas de definição horizontal progressiva (1080p), são conhecidos como Full HD. Quando utilizados em fontes de sinal 1080i (ex: transmissões em HD) ou 1080p (ex: DVD de alta definição, HD-DVD ou Blu-Ray Disc), podem exibir a melhor definição disponível em alta definição.
Televisor SDTV - (Standard Definition TV) Possui definição nativa de 480 linhas horizontais.
A maior parte dos televisores presentes no mercado pode reproduzir sinais com 480 linhas entrelaçadas (480i). Com a transmissão digital, a qualidade de imagem destes televisores será a mesma que eles apresentam quando conectados a um DVD. O conceito SDTV tem relação com a qualidade de imagem e não com o fato do produto ser digital ou analógico. Um produto SDTV pode ter um sintonizador digital.
Transmissão terrestre - Através de ondas de radiofrequência, os sinais analógicos ou digitais são transmitidos pelo ar a partir das antenas terrestres (diferentemente dos satélites, que ficam no espaço) e necessitam de antenas e receptores apropriados para a sua recepção.
TV a cabo - Sistema que distribui conteúdo audiovisual via cabos.
É transmitido por uma operadora, que recebe este conteúdo, nacional ou internacional, e o distribui às casas que pagam mensalmente pelo serviço. Normalmente tem um número significativo de canais disponibilizados.
TV aberta - Sistema que emite livremente conteúdo audiovisual, sem encargos e taxas para o telespectador.
Para ter acesso a este conteúdo, basta que a TV esteja conectada à rede elétrica (tomada, gerador ou bateria) e situada dentro da área de cobertura de alguma emissora aberta.
TV analógica – Transmissão (sinal aberto) - É o sinal de TV terrestre transmitido de forma analógica. É comum ocorrer perda de qualidade no processo de transmissão / recepção, ocasionando ruídos e interferências na imagem recebida.
TV de projeção - Funciona como um projetor, porém, a imagem é gerada invertida e projetada na parte de trás da tela do televisor. Assim, vemos a imagem não mais invertida do outro lado. Nos projetores, uma luz muito forte passa por espelhos que a filtram em três cores. Estas se unem e são projetadas para formar a imagem.
TV de tubo - (CRT) CRT é um acrônimo para a expressão inglesa cathode ray tube, que em português significa “tubo de raios catódicos”. Também conhecidos como Cinescópio. Dentro de sua TV existe um tubo onde encontramos duas placas: uma positiva e outra negativa. Quando a tensão entre as placas é muito alta, gera elétrons, e quando esses atingem a placa positiva, a diferença de energia gera um feixe de luz que atravessa o tubo e para na parte de trás do vidro da televisão, formando a imagem.
TV LCD - Um feixe de luz passa por pequenas células que contêm cristal líquido (daí o nome Liquid Crystal Display) controlado por uma corrente elétrica. Assim são geradas as três cores básicas para a formação de imagens: vermelho, verde e azul.
TV LED - O processo de transmissão das TVs de LED funciona praticamente como a de uma TV de LCD só que a tecnologia é um pouco diferente, ou seja, ao invés daquela luz branca no backlight, nas TVs de LED você tem um conjuntos de LEDs com as cores primárias (vermelho, azul e verde) e faz com que o trabalho de filtragem de luz do cristal líquido seja muito melhor realizado, conseguindo cores mais puras e com uma gama muito maior. Essa tecnologia também faz com que a luz seja exatamente igual durante todo seu tempo de uso e não ocorra perda de brilho ou alteração de cor, independentemente de ter uma luz acesa ou não.
O painel também possibilita uma melhor regulagem na intensidade da luz. É a mais indicada para o sistema digital HDTV.
TV Móvel - É a possibilidade de captar os sinais de TV em dispositivos em movimento: ônibus, trens, metrô, carros, barcos, etc.
TV Plasma - No painel de plasma, encontramos pequeninas células que contêm uma mistura de gases. Quando uma corrente elétrica passa por essas células, excita os gases que passam para o estado plasma, gerando luz.
TV Portátil - É a recepção em equipamentos portáteis, que podem ou não estar em movimento. Exemplo: televisores e computadores de mão equipados com receptor de TV ou telefones celulares equipados com chip receptor, nos quais o espectador pode assistir à programação deslocando-se ou não.
TV Via Satélite - Com o avanço da tecnologia foi possível receber o sinal diretamente via satélite nos domicílios.
Um satélite recebe a transmissão de outros satélites ou de uma central terrestre, e retransmite para as casas que possuem uma antena específica apontada para ele. É um serviço pago.
TV Digital no Brasil
Televisor ISDB-Tb Integrado - (conversor digital integrado) Independente de sua tecnologia (CRT, Plasma, LCD ou Projeção), é aquele que possui o conversor digital integrado. Isso significa que pode receber sinais de TV Digital no padrão ISDB-Tb (padrão de TV Digital adotado no Brasil), diretamente da antena, sem necessidade de outro equipamento para converter o sinal (conversor).
TV ISDB-Tb Digital – Transmissão (sinal aberto) - Sinal de TV terrestre transmitido de forma digital. O grande benefício deste sistema é que não há perda de qualidade no processo de transmissão. Imagem e áudio permanecem 100% com a qualidade do sinal original, eliminando ruídos e interferências características do sistema analógico.
[editar] Pay-per-view (PPV)Ver artigo principal: Pay-per-view
Antigamente, quem quisesse assistir a um canal de filme tinha que ter ciência da programação, ou mesmo um PPV, os clientes tinham que esperar o início do programa almejado para que pudessem comprá-lo. Podem ver também outros pay-per-view como, por exemplo no Brasil, o Big Brother Brasil.

[editar] HDTVVer artigo principal: HDTV
Em sua maior resolução de imagem - High Definition Television (HDTV) - Este padrão prioriza a nitidez e qualidade da imagem em detrimento do número máximo de canais a serem transportados em uma mesma freqüência. Atualmente, a resolução HDTV encontra resistência em avançar no mundo, sendo o alto custo da solução um dos principais obstáculos.
O HDTV é atualmente utilizado em algumas grandes cidades localizadas em partes dos Estados Unidos, do Japão e de algumas regiões da Europa (para quem dispõe de uma TV com esta tecnologia)..

[editar] Progresso da implementação da TV Digital[editar] No BrasilVer artigo principal: Televisão digital no Brasil
O Brasil foi o único país emergente onde emissoras e indústrias de equipamentos financiaram parte dos testes de laboratório e de campo para comparar a eficiência técnica dos três padrões tecnológicos existentes em relação à transmissão e recepção dos sinais.

As universidades destacadas nesta pesquisa são a Universidade Presbiteriana Mackenzie, juntamente com equipamentos da NEC, que realizaram diversos testes em laboratório e em campo, para a escolha do padrão de TV digital japonês. E a Escola Politécnica da Universidade de São Paulo (EPUSP) que em seu laboratório de Sistemas Integrados, chegou a criar um padrão totalmente brasileiro de transmissão.

A TV Digital no Brasil chegou às 20h48min do dia 2 de dezembro de 2007, com pronunciamento do Presidente da República. Inicialmente na Grande São Paulo, pelo padrão japonês com algumas adaptações.

A RedeTV! foi a primeira rede de televisão a exibir em São Paulo a sua programação em formato digital de televisão. No dia 20 de abril o sinal de Alta Definição foi liberado pela Rede Globo apenas na região metropolitana do Grande Rio.
O sinal de TV digital também já está presente em Foz do Iguaçu, Belém, Aracaju, Araguari, Campinas, Cuiabá, Goiânia, Belo Horizonte, Maceió, Porto Alegre, Fortaleza, Curitiba, Ituiutaba, Londrina, Vitória, Florianópolis, Salvador, Uberlândia, Uberaba, Teresina, Santos, Brasília, Joinville, Recife, Manaus, Sorocaba, Santa Bárbara d`Oeste, São Luís, Campo Grande, Natal, João Pessoa, Palmas, Presidente Prudente, São José dos Campos.

O sinal analógico será desligado em 29 de junho de 2016, tempo considerado suficiente para que toda a população do Brasil esteja inserida definitivamente na nova tecnologia[2]

Programas em Alta Definição
Além da transmissão digital, as emissoras optam também para a transmissão em Alta Definição, o HDTV. Veja agora alguns programas atuais de 2011 em HDTV no Brasil:

Globo: Telenovelas noturnas, Tela Quente, Futebol (principais jogos), Fórmula 1, Voleibol, A Grande Família, Tapas & Beijos, A Mulher Invisível (série), Divã (série), Lara com Z, Macho Man (série), Batendo Ponto, Bem Estar, Temperatura Máxima (alguns filmes), Sessão da Tarde (alguns filmes), Supercine (alguns filmes), Domingão do Faustão (quando transmitido dos estúdios do Rio de Janeiro), Fantástico (alguns quadros), Domingo Maior (alguns filmes), Profissão Repórter, Globo Repórter (alguns programas), entre outros.
Record: Ídolos, Jornal da Record, Fala Brasil, Record Notícias, Hoje em Dia, Todo mundo odeia o Chris, Tudo a Ver, Domingo Espetacular, Super Tela (Alguns filmes), Tela Máxima (Alguns filmes), CSI, Balanço Geral, Troca de Família, algumas séries, entre outros.
SBT: Amor e Revolução, De Frente com Gabi, A Praça É Nossa, Aventura Selvagem, Um Contra Cem, Domingo Legal, Cine Espetacular (alguns filmes), Tela de Sucessos (alguns filmes), algumas séries, entre outros.
Band: Primeiro Jornal,Brasil Urgente, Jornal da Band, CQC, Jornal da Noite, Futebol, Top Cine, Jogo Aberto, Band Esporte Clube, entre outros (Em base, quase toda a programação do canal é exibido em HD, apenas alguns programas antigos como Mr. Bean e programas independentes não são exibidos em HD).
RedeTV!: Toda a sua programação é produzida em HDTV. Produções independentes (como seriados e desenhos) são transmitidos em SDTV.
TV Cultura: Cocoricó (na cidade), Roda Viva, Sr. Brasil, Educação Financeira, Quintal da Cultura, programação de orquestra, entre outros.
MTV Brasil: Top 10 MTV, Furo MTV, Quinta Categoria, Acesso MTV, Scrap MTV, VMB, entre outros.
Rede Vida: JCTV, Hora de Brincar, Vida Melhor, Missa do Santuário da Vida, Tribuna Independente.

Processamento Paralelo

Processamento Paralelo
Sistema Paralelo É a ligação de vários computadores para realizar uma tarefa, tecnicamente [1] é um sistema de inter-conexão de vários nós de processamento, de maneira que um processo de grande consumo, seja executado no nó mais disponível ou mesmo subdividido por vários nós”.
O Processamento Paralelo distribui as tarefas para cada processador envolvido nesta interconexão de nós.
O objetivo de um sistema de Processamento Paralelo é obter agilidade, ganho de tempo na realização de uma grande tarefa no qual será feita uma divisão na distribuição das tarefas para cada nó. É importante ressaltar que, o Processamento Paralelo nada mais é que uma rede de vários computadores interconectados, utilizada em diferentes tipos de topologia a qual permite adicionar ou desfazer a conexão com um dos nós, logicamente a retirada de um dos nós ocorre quando há danos ou interferências.
A vantagem de usar um processamento Paralelo é obter um alto desempenho em tarefas que são consideradas pesadas na realização de computadores individuais. (Figura 1: Ilustração de nós em Processamento Paralelo – Wikipédia)

Microeletrônica

A microeletrônica é um ramo da eletrônica, voltado à integração de circuitos eletrônicos, promovendo uma miniaturização dos componentes em escala microscópica. A área engloba tanto os processos de físico-quimicos de fabricação do circuitos integrados como o projeto do circuito em si. São considerados ramos desta área, igualmente, o desenvolvimento de software de apoio ao projeto de circuitos, modelagem de componentes, técnicas de teste, entre outras.

O componentes utilizados na microeletrônica são construídos na escala de mícrons ou mesmo nanômetros, tornando-se parte do ramo de nanotecnologia. A redução no tamanho dos componentes utilizados vem, ao longo da história, seguindo a Lei de Moore. O conjunto de componentes usados para um mesmo projeto é tipicamente chamado de circuito intengrado (CI), ou ainda, "chip". Alguns exemplos de circuitos integrados são memórias de computadores, processadores, modems e conversores analógicos digitais.

Os circuitos integrados são produzidos em wafles, discos de silício, normalmente de 300mm de diâmetro, sobre os quais são fabricadas estruturas laminares, em um processo denominado fotolitografia. Tipicamente, diversos circuitos eletrônicos (idênticos ou não) são fabricado em um mesmo wafle por vez, de modo a ocupar toda a área disponível.
O custo de produção do circuito será o custo de fabricação do wafle, dividido pelo número de circuitos nele presentes (excluindo-se os defeituosos). Assim, um circuito é mais caro pelo fato de usar uma maior área do wafle - e, consequentemente, tendo um menor número de circuitos por wafle - e não necessariamente devido ao número de componentes presentes.
Circuitos Analógicos x circuitos digitaisO projeto de circuitos integrados possui diferenças significativas quando feitos para circuitos analógicos e digitais. Esta diferença se reflete tanto no mercado de trabalho (profissionais trabalham, normalmente, em apenas um destes ramos) como em ferramentas utilizadas para o projeto dos circuitos.

A diferença fundamental entre circuitos analógicos e circuitos digitais é o nível de abstração das grandezas envolvidas. Enquanto que circuitos digitais são elaborados para trabalhar com sinais lógicos, circuitos analógicos são elaborados para processar, criar ou analisar sinais de tensão e corrente.

Os circuitos integrados mais conhecidos hoje são circuitos digitais, tais como processadores e ℳemórias'. Eles são tipicamente produzidos através da combinação de transistores de modo a formar portas lógicas. O projeto de circuitos digitais permite um alto nível de abstração. Linguagens de descrição de circuitos integrados (tais como VHDL e Verilog) possuem grandes semelhanças com linguagens de programação de software.

Assim,como os circuitos digitais, circuitos analógicos fazem uso de transistores, capacitores e resistores. Entretanto,por trabalhar diretamente com os componentes físicos do sistema,o nível de abstração possível para um circuito analógico é bem menor quando comparado com um circuito digital.
Assim sendo, pode-se falar em circuitos digitais com milhões de transistores em estruturas compiladas a partir de descrições em VHDL. Circuitos analógicos, por outro lado, demandam atenção detalhada do projetista - componente por componente.

Além destes, são considerados parte da microeletrônica os MEMs (do inglês "Microelectronic Machine", Máquinas Microeletrônicas). Estes projetos apresentam apenas em parte uma concepção eletrônica, sendo, em larga medida, projetos mecânicos. Eles são usados para diversas aplicações, tais como micro sensores.

[editar] Aspectos econômicosA microeletrônica vem assumindo crescente importância no mundo atual, estando presente na informática, nas telecomunicações, nos controles de processos industriais, na automação dos serviços bancários e comerciais e nos bens de consumo.
Quanto a esses últimos, ela aparece não apenas nos tradicionais segmentos de áudio e vídeo, mas de forma disseminada entre os eletrodomésticos, cada vez mais “inteligentes”, e os automóveis.

[editar] Curso no BrasilPrograma de Pós Graduação em Microeletrônica (PGMICRO) na Universidade Federal do Rio Grande do Sul (UFRGS) o curso tem natureza multidisciplinar e engloba conhecimentos nas áreas de Engenharia, Informática, Física e Química. Gerando pesquisa e desenvolvimento e adsorvendo profissionais destas áreas.
Há também o curso de Sistemas Eletrônicos na graduação da Escola Politécnica da Universidade de São Paulo(POLI-USP). O estudante é conduzido a uma formação generalista de elétrica e eletrônica, mas aprofundando conceitos importantes da microeletrônica e do desenvolvimento de sistemas integrados.[1]

Inteligência artificial

A Inteligência Artificial (IA) é uma área de pesquisa... da ciência da computação e Engenharia da Computação, dedicada a buscar métodos ou dispositivos computacionais que possuam ou multipliquem a capacidade racional do ser humano de resolver problemas, pensar ou, de forma ampla, ser inteligente. Também pode ser definida como o ramo da ciência da computação que se ocupa do comportamento inteligente[1] ou ainda, o estudo de como fazer os computadores realizarem coisas que, atualmente, os humanos fazem melhor.[2]

O desenvolvimento da área começou logo após a Segunda Guerra Mundial, com o artigo "Computing Machinery and Intelligence" do matemático inglês Alan Turing[3], e o próprio nome foi cunhado em 1956.[4][5] Seus principais idealizadores foram os cientistas Herbert Simon, Allen Newell, John McCarthy, Warren McCulloch, Walter Pitts e Marvin Minsky, entre outros.

A construção de máquinas inteligentes interessam à humanidade há muito tempo, havendo na história um registro significante de autômatos mecânicos (reais) e personagens místicos, como o Golem e o Frankenstein, que demonstram um sentimento ambíguo do homem, composto de fascínio e de medo, em relação à Inteligência Artificial.[6]

Apenas recentemente, com o surgimento do computador moderno, é que a inteligência artificial ganhou meios e massa crítica para se estabelecer como ciência integral, com problemáticas e metodologias próprias. Desde então, seu desenvolvimento tem extrapolado os clássicos programas de xadrez ou de conversão e envolvido áreas como visão computacional, análise e síntese da voz, lógica difusa, redes neurais artificiais e muitas outras.

Inicialmente a IA visava reproduzir o pensamento humano. A Inteligência Artificial abraçou a idéia de reproduzir faculdades humanas como criatividade, auto-aperfeiçoamento e uso da linguagem. Porém, o conceito de inteligência artificial é bastante difícil de se definir. Por essa razão, Inteligência Artificial foi (e continua sendo) uma noção que dispõe de múltiplas interpretações, não raro conflitantes ou circulares
Visão geralA questão sobre o que é "inteligência artificial", mesmo como definida anteriormente, pode ser separada em duas partes: "qual a natureza do artificial" e "o que é inteligência". A primeira questão é de resolução relativamente fácil, apontando no entanto para a questão de o que poderá o homem construir.

A segunda questão seria consideravelmente mais difícil, levantando a questão da consciência, identidade e mente (incluindo a mente inconsciente) juntamente com a questão de que componentes estão envolvidos no único tipo de inteligência que universalmente se aceita como estando ao alcance do nosso estudo: a inteligência do ser humano. O estudo de animais e de sistemas artificiais que não são modelos triviais, começam a ser considerados como matéria de estudo na área da inteligência.

Ao conceituar inteligência artificial, presume-se a interação com o ambiente, diante de necessidades reais como relações entre indivíduos semelhantes, a disputa entre indivíduos diferentes, perseguição e fuga; além da comunicação simbólica específica de causa e efeito em diversos níveis de compreensão intuitiva, consciente ou não.

Suponhamos uma competição de cara e coroa, cujos resultados sejam observados ou não. Se na segunda tentativa der o mesmo resultado que a primeira, então não existiam as mesmas chances para ambas as 2 opções iniciais. Claro que a coleta de informação em apenas duas amostragens é confiável apenas porque a quantidade de tentativas é divisível pelo número de opções de resultados prováveis.

A verdade é que o conceito de cara ou coroa está associado a artigos de valor, como moedas e medalhas que podem evitar que as pessoas abandonem o jogo e induzir participantes a acompanhar os resultados até o final. Para manter a disposição do adversário em desafiar a máquina seria necessário aparentar fragilidade e garantir a continuidade da partida. Isso é muito utilizado em máquinas de cassino, sendo que vários apostadores podem ser induzidos a dispensar consideráveis quantias em apostas.

A utilização de uma máquina de resultados pode compensar a ausência de um adversário, mas numa partida de xadrez, por exemplo, para que a máquina não precise armazenar todas as informações que excedem a capacidade de próprio universo imaginável são necessárias fórmulas que possam ser armazenadas para que então sejam calculadas por princípios físicos, lógicos, geométricos, e estatísticos para refletir o sistema completo em cada uma das suas partes; como a integração do Google com Wikipedia, por exemplo.

Uma popular e inicial definição de inteligência artificial, introduzida por John McCarthy na famosa conferência de Dartmouth em 1956 é "fazer a máquina comportar-se de tal forma que seja chamada inteligente caso fosse este o comportamento de um ser humano." No entanto, esta definição parece ignorar a possibilidade de existir a IA forte (ver abaixo).

Outra definição de Inteligência Artificial é a inteligência que surge de um "dispositivo artificial". A maior parte das definições podem ser categorizadas em sistemas que: "pensam como um humano; agem como um humano; pensam racionalmente ou agem racionalmente".[7]

[editar] IA forte e IA fracaEntre os teóricos que estudam o que é possível fazer com a IA existe uma discussão onde se consideram duas propostas básicas: uma conhecida como "forte" e outra conhecida como "fraca". Basicamente, a hipótese da IA forte considera ser possível criar uma máquina consciente, ou seja afirma que os sistemas artificiais devem replicar a mentalidade humana.[8]

[editar] Inteligência artificial forte
Isaac Azimov no trono de suas realizaçõesA investigação em Inteligência Artificial Forte aborda a criação da forma de inteligência baseada em computador que consiga raciocinar e resolver problemas; uma forma de IA forte é classificada como auto-consciente

A IA forte é tema bastante controverso, pois envolve temas como consciência e fortes problemas éticos ligados ao que fazer com uma entidade que seja cognitivamente indiferenciável de seres humanos.

A ficção científica tratou de muitos problemas desse tipo. Isaac Asimov, por exemplo, escreveu O Homem Bicentenário, onde um robô consciente e inteligente luta para possuir um status semelhante ao de um humano na sociedade.[9] E Steven Spielberg escreveu "A.I. Inteligência Artificial" onde um garoto-robô procura conquistar o amor de sua "mãe", procurando uma maneira de se tornar real. Por outro lado, o mesmo Asimov reduz os robôs a servos dos seres humanos ao propor as três leis da robótica.[6]

[editar] Inteligência artificial fracaTrata-se da noção de como lidar com problemas não determinísticos.

Uma contribuição prática de Alan Turing foi o que se chamou depois de Teste de Turing (TT),[10] de 1950: em lugar de responder à pergunta "podem-se ter computadores inteligentes?" ele formulou seu teste, que se tornou praticamente o ponto de partida da pesquisa em "Inteligência Artificial".[3]

O teste consiste em se fazer perguntas a uma pessoa e um computador escondidos. Um computador e seus programas passam no TT se, pelas respostas, for impossível a alguém distinguir qual interlocutor é a máquina e qual é a pessoa.

No seu artigo original ele fez a previsão de que até 2000 os computadores passariam seu teste.[10] Pois bem, há um concurso anual de programas para o TT, e o resultado dos sistemas ganhadores é tão fraco (o último tem o nome "Ella") que com poucas perguntas logo percebe-se as limitações das respostas da máquina. É interessante notar que tanto a Máquina de Turing quanto o Teste de Turing talvez derivem da visão que Turing tinha de que o ser humano é uma máquina.

Há quem diga que essa visão está absolutamente errada, do ponto de vista lingüístico, já que associamos à "máquina" um artefato inventado e eventualmente construído. Dizem eles: "Nenhum ser humano foi inventado ou construído". Afirma-se ainda que a comparação, feita por Turing, entre o homem e a máquina é sinônimo de sua "ingenuidade social", pois as máquinas são infinitamente mais simples do que o homem, apesar de, paradoxalmente, se afirmar que a vida é complexa.
No entanto, esta linha de raciocínio é questionável, afinal de contas, os computadores modernos podem ser considerados "complexos" quando comparados ao COLOSSUS (computador cujo desenvolvimento foi liderado por Turing, em 1943), ou a qualquer máquina do início do século XX.

A inteligência artificial fraca centra a sua investigação na criação de inteligência artificial que não é capaz de verdadeiramente raciocinar e resolver problemas. Uma tal máquina com esta característica de inteligência agiria como se fosse inteligente, mas não tem autoconsciência ou noção de si. O teste clássico para aferição da inteligência em máquinas é o Teste de Turing.[10]

Há diversos campos dentro da IA fraca, e um deles é o Processamento de linguagem natural, que trata de estudar e tentar reproduzir os processos de desenvolvimento que resultaram no funcionamento normal da língua. Muitos destes campos utilizam softwares específicos e linguagens de programação criadas para suas finalidades.
Um exemplo bastante conhecido é o programa A.L.I.C.E. (Artificial Linguistic Internet Computer Entity, ou Entidade Computadorizada de Linguagem Artificial para Internet), um software que simula uma conversa humana. Programado em Java e desenvolvido com regras heurísticas para os caracteres de conversação, seu desenvolvimento resultou na AIML (Artificial Intelligence Markup Language), uma linguagem específica para tais programas e seus vários clones, chamados de Alicebots.

Muito do trabalho neste campo tem sido feito com simulações em computador de inteligência baseado num conjunto predefinido de regras. Poucos têm sido os progressos na IA forte. Mas dependendo da definição de IA utilizada, pode-se dizer que avanços consideráveis na IA fraca já foram alcançados.

[editar] Críticas filosóficas e a argumentação de uma IA forte
John Searle no Mexico em 2005Muitos filósofos, sobretudo John Searle e Hubert Dreyfus, inseriram no debate questões de ordem filosófica e epistemológica, questionando qualquer possibilidade efetiva da IA forte.[11][12] Seriam falsos, assim, os próprios pressupostos da construção de uma inteligência ou consciência semelhante à humana em uma máquina.[13]

Searle é bastante conhecido por seu contra-argumento sobre o Quarto Chinês (ou Sala Chinesa), que inverte a questão colocada por Minsky a respeito do Teste de Turing.[14] Seu argumento diz que ainda que uma máquina possa parecer falar chinês por meio de recursos de exame comparativo com mostras e tabelas de referência, binárias, isso não implica que tal máquina fale e entenda efetivamente a língua.
Ou seja, demonstrar que uma máquina possa passar no Teste de Turing não necessariamente implica um ser consciente, tal como entendido em seu sentido humano.[15] Dreyfus, em seu livro O que os computadores ainda não conseguem fazer: Uma crítica ao raciocínio artificial, argumenta que a consciência não pode ser adquirida por sistemas baseados em regras ou lógica; tampouco por sistemas que não façam parte de um corpo físico.
No entanto, este último autor deixa aberta a possibilidade de um sistema robótico baseado em Redes Neuronais, ou em mecanismos semelhantes, alcançar a inteligência artificial.[12]

Mas já não seria a referida IA forte, mas sim um correlato bem mais próximo do que se entende por IA fraca. Os revezes que a acepção primeira de Inteligência Artificial vem levando nos últimos tempos contribuíram para a imediata relativização de todo seu legado.
O papel de Marvin Minsky, figura proeminente do MIT e autor de Sociedade da Mente, fora central para a acepção de uma IA linear que imitaria com perfeição a mente humana, mas seu principal feito foi construir o primeiro computador baseado em redes neurais, conhecido como Snark,[16] tendo simplesmente fracassado pois nunca executou qualquer função interessante, apenas consumiu recursos de outras pesquisas mais promissoras. O primeiro neuro computador a obter sucesso (Mark I Perceptron) surgiu em 1957 e 1958, criado por Frank Rosenblatt, Charles Wightman e outros.
Atualmente, no entanto, as vertentes que trabalham com os pressupostos da emergência e com elementos da IA fraca parecem ter ganhado proeminência do campo.

As críticas sobre a impossibilidade de criar uma inteligência em um composto artificial podem ser encontradas em Jean-François Lyotard (O Pós-humano) e Lucien Sfez (Crítica da Comunicação); uma contextualização didática do debate encontra-se em Sherry Turkle (O segundo Eu: os computadores e o espírito humano).
Pode-se resumir o argumento central no fato de que a própria concepção de inteligência é humana e, nesse sentido, animal e biológica. A possibilidade de transportá-la para uma base plástica, artificial, encontra um limite claro e preciso: se uma inteligência puder ser gerada a partir destes elementos, deverá ser necessariamente diferente da humana, na medida em que o seu resultado provém da emergência de elementos totalmente diferentes dos encontrados nos humanos.
A inteligência, tal como a entendemos, é essencialmente o fruto do cruzamento da uma base biológica com um complexo simbólico e cultural, impossível de ser reproduzido artificialmente.

Outros filósofos sustentam visões diferentes. Ainda que não vejam problemas com a IA fraca, entendem que há elementos suficientes para se crer na IA forte também. Daniel Dennett argumenta em Consciência Explicada que se não há uma centelha mágica ou alma nos seres humanos, então o Homem é apenas uma outra máquina.
Dennett questiona por que razão o Homem-máquina deve ter uma posição privilegiada sobre todas as outras possíveis máquinas quando provido de inteligência.

Alguns autores sustentam que se a IA fraca é possível, então também o é a forte. O argumento da IA fraca, de uma inteligência imitada mas não real, desvelaria assim uma suposta validação da IA forte. Isso se daria porque, tal como entende Simon Blackburn em seu livro Think, dentre outros, não existe a possibilidade de verificar se uma inteligência é verdadeira ou não. Estes autores argumentam que toda inteligência apenas parece inteligência, sem necessariamente o ser.
Parte-se do princípio que é impossível separar o que é inteligência de fato do que é apenas simulação: apenas acredita-se ser.

Estes autores rebatem os argumentos contra a IA forte dizendo que seus críticos reduzem-se a arrogantes que não podem entender a origem da vida sem uma centelha mágica, um Deus ou uma posição superior qualquer.
Eles entenderiam, em última instância, máquina como algo essencialmente incapaz e sequer conseguem supô-la como capaz de inteligência. Nos termos de Minsky, a crítica contra a IA forte erra ao supor que toda inteligência derive de um sujeito - tal como indicado por Searle - e assim desconsidera a possibilidade de uma maquinaria complexa que pudesse pensar.
Mas Minsky desconsidera o simples fato de que os maiores avanços na área foram conseguidos com "maquinaria complexa", também chamada por pesquisadores mais importantes de Inteligência Artificial Conexista.
Se a crítica de Minsky fosse válida a maquina criada por Rosenblatt e Bernard Widrow não estaria em uso ainda hoje, e o Mark I Perceptron não seria o fundador da neuro-computação.
Alguns pesquisadores importantes afirmam que um dos motivos das críticas de Minsky foi o fato de ter falhado com Snark. A partir daí começou a criticar essa área por não compreende-la completamente, prejudicando desde então pesquisas importantes sobre o assunto.

O debate sobre a IA reflete, em última instância, a própria dificuldade da ciência contemporânea em lidar efetivamente com a ausência de um primado superior. Os argumentos pró-IA forte são esclarecedores dessa questão, pois são os próprios cientistas, que durante décadas tentaram e falharam ao criar uma IA forte, que ainda procuram a existência de uma ordem superior.
Ainda que a IA forte busque uma ordem dentro da própria conjugação dos elementos internos, trata-se ainda da suposição de que existe na inteligência humana uma qualidade superior que deve ser buscada, emulada e recriada. Reflete, assim, a difícil digestão do legado radical da Teoria da Evolução, onde não existe positividade alguma em ser humano e ser inteligente; trata-se apenas de um complexo de relações que propiciaram um estado particular, produto de um cruzamento temporal entre o extrato biológico e uma complexidade simbólica.

[editar] HistóriaOs primeiros anos da IA foram repletos de sucessos – mas de uma forma limitada. Considerando-se os primeiros computadores, as ferramentas de programação da época e o fato de que apenas alguns anos antes os computadores eram vistos como objetos capazes de efetuar operações aritméticas e nada mais, causava surpresa o fato de um computador realizar qualquer atividade remotamente inteligente.

O sucesso inicial prosseguiu com o General Problem Solver (Solucionador de problemas gerais) ou GPS, desenvolvido por Newell e Simon.[17] Esse programa foi projetado para imitar protocolos humanos de resolução de problemas. Dentro da classe limitada de quebra-cabeças com a qual podia lidar, verificou-se que a ordem em que os seres humanos abordavam os mesmos problemas. Desse modo, o GPS talvez tenha sido o primeiro programa a incorporar a abordagem de “pensar de forma humana”.

Desde o início os fundamentos da inteligência artificial tiveram o suporte de várias disciplinas que contribuíram com idéias, pontos de vista e técnicas para a IA. Os filósofos (desde 400 a.C.) tornaram a IA concebível, considerando as idéias de que a mente é, em alguns aspectos, semelhante a uma máquina, de que ela opera sobre o conhecimento codificado em alguma linguagem interna e que o pensamento pode ser usado para escolher as ações que deverão ser executadas.
Por sua vez, os matemáticos forneceram as ferramentas para manipular declarações de certeza lógica, bem como declarações incertas e probabilísticas. Eles também definiram a base para a compreensão da computação e do raciocínio sobre algoritmos.

Os economistas formalizaram o problema de tomar decisões que maximizam o resultado esperado para o tomador de decisões. Os psicólogos adotaram a idéia de que os seres humanos e os animais podem ser considerados máquinas de processamento de informações. Os lingüistas mostraram que o uso da linguagem se ajusta a esse modelo.
Os engenheiros de computação fornecem os artefatos que tornam possíveis as aplicações de IA. Os programas de IA tendem a serem extensos e não poderiam funcionar sem os grandes avanços em velocidade e memória que a indústria de informática tem proporcionado.

Atualmente, a IA abrange uma enorme variedade de subcampos. Dentre esses subcampos está o estudo de modelos conexionistas ou redes neurais. Uma rede neural pode ser vista como um modelo matemático simplificado do funcionamento do cérebro humano.[18] Este consiste de um número muito grande de unidades elementares de processamento, ou neurônios, que recebem e enviam estímulos elétricos uns aos outros, formando uma rede altamente interconectada.

No processamento, são compostos os estímulos recebidos conforme a intensidade de cada ligação, produzindo um único estímulo de saída. È o arranjo das interconexões entre os neurônios e as respectivas intensidades que define as principais propriedades e o funcionamento de uma RN. O estudo das redes neurais ou o conexionismo se relaciona com a capacidade dos computadores aprenderem e reconhecerem padrões.
Podemos destacar também o estudo da biologia molecular na tentativa de construir vida artificial e a área da robótica, ligada à biologia e procurando construir máquinas que alojem vida artificial. Outro subcampo de estudo é a ligação da IA com a Psicologia, na tentativa de representar na máquina os mecanismos de raciocínio e de procura.

Nos últimos anos, houve uma revolução no trabalho em inteligência artificial, tanto no conteúdo quanto na metodologia. Agora, é mais comum usar as teorias existentes como bases, em vez de propor teorias inteiramente novas, fundamentar as informações em teoremas rigorosos ou na evidência experimental rígida, em vez de utilizar como base a intuição e destacar a relevância de aplicações reais em vez de exemplos de brinquedos.

A utilização da IA permite obter não somente ganhos significativos de performance, mas também possibilita o desenvolvimento de aplicações inovadoras, capazes de expandir de forma extraordinária nossos sentidos e habilidades intelectuais. Cada vez mais presente, a inteligência artificial simula o pensamento humano e se alastra por nosso cotidiano.


Humanoide[editar] Investigação na IA experimentalA inteligência artificial começou como um campo experimental nos anos 50 com pioneiros como Allen Newell e Herbert Simon, que fundaram o primeiro laboratório de inteligência artificial na Universidade Carnegie Mellon, e McCarty que juntamente com Marvin Minsky, que fundaram o MIT AI Lab em 1959. Foram eles alguns dos participantes na famosa conferência de verão de 1956 em Darthmouth College.[19]

Historicamente, existem dois grandes estilos de investigação em IA: IA "neats" e IA "scruffies". A IA "neats", limpa, clássica ou simbólica. Envolve a manipulação de símbolos e de conceitos abstractos, e é a metodologia utilizada na maior parte dos sistemas periciais.

Paralelamente a esta abordagem existe a abordagem IA "scruffies", ou "coneccionista", da qual as redes neuronais são o melhor exemplo. Esta abordagem cria sistemas que tentam gerar inteligência pela aprendizagem e adaptação em vez da criação de sistemas desenhados com o objectivo especifico de resolver um problema. Ambas as abordagems apareceram num estágio inicial da história de IA.
Nos anos 60s e 70s os coneccionistas foram retirados do primeiro plano da investigação em IA, mas o interesse por esta vertente da IA foi retomada nos anos 80s, quando as limitações da IA "limpa" começaram a ser percebidas.

Pesquisas sobre inteligência artificial foram intensamente custeadas na década de 1980 pela Agência de Projetos de Pesquisas Avançadas sobre Defesa (“Defense Advanced Research Projects Agency”), nos Estados Unidos, e pelo Projeto da Quinta Geração (“Fifth Generation Project”), no Japão.
O trabalho subsidiado fracassou no sentido de produzir resultados imediatos, a despeito das promessas grandiosas de alguns praticantes de IA, o que levou proporcionalmente a grandes cortes de verbas de agências governamentais no final dos anos 80, e em conseqüência a um arrefecimento da atividade no setor, fase conhecida como O inverno da IA. No decorrer da década seguinte, muitos pesquisadores de IA mudaram para áreas relacionadas com metas mais modestas, tais como aprendizado de máquinas, robótica e visão computacional, muito embora pesquisas sobre IA pura continuaram em níveis reduzidos.

[editar] AbordagensNão há uma teoria ou paradigma unificado estabelecido que guie a pesquisa em IA. Os pesquisadores discordam em muitas questões.[20] Algumas das questões mais duradouras que permaneceram sem respostas são essas: a inteligência artificial poderia simular a inteligência natural, através do estudo da psicologia ou neurologia? Ou a biologia humana é tão irrelevante à pesquisa de IA quando a biologia de um pássaro é para a engenharia aeronáutica?
O comportamento inteligente pode ser descrito usando simples princípios elegantes (tais como lógica ou otimização)? Ou faz-se necessário resolver um grande número de problemas completamente não-relacionados? A inteligência pode ser reproduzida utilizando-se símbolos de alto nível, semelhante à palavras e idéias? Ou faz-se necessário o processamento "sub-simbólico"?[21]

[editar] Aplicações Práticas de Técnicas de IAEnquanto que o progresso direcionado ao objetivo final de uma inteligência similar à humana tem sido lento, muitas derivações surgiram no processo. Exemplos notáveis incluem as linguagens Lisp e Prolog, as quais foram desenvolvidas para pesquisa em IA,[22] embora também sejam usadas para outros propósitos.
A cultura hacker surgiu primeiramente em laboratórios de IA, em particular no MIT AI Lab, lar várias vezes de celebridades tais como McCarthy, Minsky, Seymour Papert (que desenvolveu a linguagem Logo), Terry Winograd (que abandonou IA depois de desenvolver SHRDLU).

Muitos outros sistemas úteis têm sido construídos usando tecnologias que ao menos uma vez eram áreas ativas em pesquisa de IA. Alguns exemplos incluem:

Planejamento automatizado e escalonamento: a uma centena de milhões de quilômetros da Terra, o programa Remote Agent da NASA se tornou o primeiro programa de planejamento automatizado (autônomo) de bordo a controlar o escalonamento de operações de uma nave espacial.
O Remote Agent gerou planos de metas de alto nível especificadas a partir do solo e monitorou a operação da nave espacial à medida que os planos eram executados – efetuando a detecção, o diagnóstico e a recuperação de problemas conforme eles ocorriam.
Aplicações de Raciocínio baseado em casos: RBC tem sido utilizado em diversas aplicações como análise financeira, assessoramento de riscos, controle de processos, etc. Exemplos de aplicações de RBC incluem KRITIK,[23] o CLAVIER na Lockheed,[24] o CASELine na British Airways,[24] PROTOS, CASEY, CASCADE, COMPOSER, etc..[25]
Aplicações de Algoritmos genéticos: AG são aplicáveis em diversos problemas como escalonamento de horários, sistemas de potência e filogenética.[26] O CS-1 foi o primeiro sistema de classificação aplicando AG.[27]
Jogos: o Deep Blue da IBM se tornou o primeiro programa de computador a derrotar o campeão mundial em uma partida de xadrez, ao vencer Garry Kasparov por um placar de 3,5 a 2,5 em um match de exibição em 1996.[28][29] Kasparov disse que sentiu “uma nova espécie de inteligência” do outro lado do tabuleiro. O valor das ações da IBM teve um aumento de 18 bilhões de dólares.
Ainda hoje há indícios que o jogo foi armado, pois a IBM negou-se a entregar os logs sobre o jogo, especialistas afirmam que na verdade o jogo foi uma farsa, pois não era a maquina que estava jogando e sim uma equipe de especialistas em xadrez.
Controle autônomo: o sistema de visão de computador ALVINN foi treinado para dirigir um automóvel, mantendo-o na pista. Ele foi colocado na minivan controlada por computador NAVLAB da CMU e foi utilizado para percorrer os Estados Unidos – ao longo de quase 4.600 km o ALVINN manteve o controle da direção do veículo durante 98% do tempo.
Um ser humano assumiu o comando nos outros 2%, principalmente na saída de declives. A NAVLAB tem câmeras e vídeo que transmitem imagens da estrada para ALVINN, que então calcula a melhor forma de guiar, baseado na experiência obtida em sessões de treinamento anteriores.
Diagnóstico: programas de diagnóstico medico baseados na analise probabilística foram capazes de executar tarefas no nível de um medico especialista em diversas áreas da medicina. Heckerman (1991) descreve um caso em que um importante especialista em patologia de gânglios linfáticos ridiculariza o diagnóstico de um programa em um caso especialmente difícil.
Os criadores do programa sugeriram que ele pedisse ao computador uma explicação do diagnóstico. A máquina destacou os principais fatores que influenciaram sua decisão e explicou a interação sutil de vários sintomas nesse caso. Mais tarde, o especialista concordou com o programa.
Planejamento logístico: durante a crise do Golfo Pérsico em 1991, as forças armadas dos Estados Unidos distribuíram uma ferramenta denominada Dynamic Analysis and Replanning Tool, ou DART, a fim de realizar o planejamento logístico automatizado e a programação de execução do transporte.
Isso envolveu até 50 000 veículos, transporte de carga aérea e de pessoal ao mesmo tempo, e teve de levar em conta os pontos de partida, destinos, rotas e resolução de conflitos entre todos os parâmetros. As técnicas de planejamento da IA permitiram a geração em algumas horas de um plano que exigiria semanas com outros métodos. A Defense Advanced Research Project Agency (DARPA) declarou que essa única aplicação compensou com folga os 30 anos de investimentos da DARPA em IA.
Robótica: muitos cirurgiões agora utilizam robôs assistentes em microcirurgias. O HipNav é um sistema que emprega técnicas de visão computacional para criar um modelo tridimensional da anatomia interna de um paciente, e depois utiliza controle robótico para orientar a inserção de uma prótese de substituição do quadril.
Reconhecimento de linguagem e resolução de problemas: o PROVERB é um programa computador que resolve quebra-cabeças de palavras cruzadas melhor que a maioria dos seres humanos, utilizando restrições sobre possíveis preenchimentos de palavras, um grande banco de dados de quebra-cabeças anteriores e uma variedade fonte de informações que incluem dicionários e bancos de dados on-line, como uma lista de filmes e dos atores que participam deles.
[30] Por exemplo, ele descobre que a pista “Nice Story” pode ser resolvido por “ETAGE”, porque seu banco de dados inclui o par pista/solução ”Story in France/ETAGE” e porque reconhece que os padrões “Nice X” e “X in France” com freqüência tem mesma solução. O programa não sabe que Nice é uma cidade da França, mas consegue resolver o quebra-cabeça.
Chinook foi declarado o campeão Homem-Máquina em Damas em 1994.
Lógica incerta, uma técnica para raciocinar dentro de incertezas, tem sido amplamento usada em sistemas de controles industriais.[31]
Sistemas especialistas vêm sendo usados a uma certa escala industrial. Os sistemas especialistas foram um dos primeiros sucessos da IA, com o software Mycin.
[32] Os principais componentes de um Sistema especialista são uma base de conhecimento alimentada por um especialista, uma máquina de inferência e uma memória de trabalho.[33] Sistemas especialistas em uso como o XCON/R1 da Digital Equipment Coporation sabem hoje muito mais do que um especialista humano em como configurar os seus sistemas de computação.[34]
Sistemas Tutoriais Inteligentes vem sendo usados para o aprendizado.[35] Uma característica distintiva desta técnica é o modelo do estudante.[36][37]
Sistemas tradutores, tais como SYSTRAN,[38] têm sido largamente usados (no entanto, os resultados não são ainda comparáveis com tradutores humanos).
Redes Neurais vêm sendo usadas em uma larga variedade de tarefas, de sistemas de detecção de intrusos a jogos de computadores.
Sistemas de reconhecimento óptico de caracteres (OCR) podem traduzir letra escrita de forma arbitrária em texto.
Reconhecimento de escrita a mão é usada em muitos Assistentes Pessoais Digitais. Atualmente existe um sistema de comparação de escrita forense a mão chamado CEDAR-FOX.[39]
Reconhecimento de voz está disponível comercialmente e é amplamente usado.
Sistemas de álgebra computacional, tais como Mathematica e Macsyma, são bons exemplos de aplicações de IA na solução de problemas algébricos.[40]
Sistemas com Visão computacional são usados em muitas aplicações industriais.
Aplicações utilizando Vida Artificial são utilizados na indústria de entretenimento e no desenvolvimento da Computação Gráfica.
Sistemas baseados na idéia de agentes artificiais, denominados Sistemas Multiagentes, têm se tornado comuns para a resolução de problemas complexos.[41]
Chatterbots (robôs de software para conversação), personagens virtuais que conversam em linguagem natural como se fossem humanos de verdade, são cada vez mais comuns na internet.[42]
A visão da Inteligência Artificial substituindo julgamento humano profissional tem surgido muitas vezes na história do campo, em ficção científica e, hoje em dia, em algumas áreas especializadas onde "Sistemas Especialistas" são usados para melhorar ou para substituir julgamento profissional em engenharia e medicina, por exemplo.

Computação gráfica

A computação gráfica é a área da computação destinada à geração de imagens em geral — em forma de representação de dados e informação, ou em forma de recriação do mundo real. Ela pode possuir uma infinidade de aplicações para diversas áreas, desde a própria informática, ao produzir interfaces gráficas para software, sistemas operacionais e sites na Internet, quanto para produzir animações e jogos.
Origem e desenvolvimentoA computação gráfica humana para visualização de dados. Um dos aspectos mais importantes está no desenvolvimento dos dispositivos de interação humano-computador (monitores, mouses, teclados).

[editar] AplicaçõesA computação gráfica intervém em diversas áreas, tais como:

Artes : Para expressão artística utilizando os ambientes gráfico-computacionais como meio ou fim, tais como gravura digital, arte digital, web arte.
Arquitetura e Design de produto: desenvolvimento gráfico dos projetos de forma visual e com a aplicação dos cálculos matemáticos para os testes dos projetos quanto a resistência, a variação de luz e ambientes.
Jogos: A indústria do entretenimento atualmente dá mais lucro que a cinematográfica. Jogos são a maior aplicação da computação gráfica, e a grande motivação para seu desenvolvimento, resultando também no desenvolvimento e aprimoramento de equipamentos para este tipo de trabalhos, como placas de vídeo e processadores mais poderosos.
Cinema: para produção de efeitos especiais, retoques nas imagens do filme, e filmes de animação. Um dos primeiros filmes a utilizar efeitos em pessoas e elementos foi Exterminador do Futuro,[1] o primeiro filme à utilizar efeitos especiais em animais foi Jurassic Park.[1]
Engenharia: simulação de todas as espécies de eventos físicos, químicos dos materiais envolvidos nos projetos em elaboração.
Geoprocessamento : Para geração de dados relacionados a cidades, regiões e países.
Medicina: Para análise de exames como tomografia, radiografia, e mais recentemente o ultra-som (que consegue gerar a partir deste uma imagem em 3D)
Design visual: para o desenvolvimento de mídias visuais, desde a impressa (como propagandas em revistas e outdoors) quanto para o auxílio cinematográfico dos comerciais televisivos.
[editar] ConceitosImagem: Uma pintura bidimensional, podendo ser um desenho ou uma fotografia, também pode ser capturada através do olho humano.
Pixel: Contido em imagens digitais, o pixel é a menor parte de uma imagem, geralmente são representados em forma de quadrados ou círculos.
Gráfico: São representações visuais em uma superfície, geralmente usados para se mostrar uma cena, gráficos podem ser bidimensionais ou tridimensionais.
Renderização: Processo de gerar uma imagem a partir de modelos em um mundo tridimensional.
Projeção 3D: Método de mapear pontos tridimensionais em plano bidimensional.
Ray Tracing: Técnica usada para gerar uma imagem tracejando o caminho da luz através de um plano de imagem.
Sombreamento: Técnica de calcular o nível de escuridão em modelos 3D.
Mapeamento de textura: Método de aplicar detalhes a uma superfície 3D lisa.
[editar] Geração de imagens em um computador
pixelToda a computação gráfica é baseada em pixels que são pontos que fazem com que a imagem seja sintetizada visualmente em um monitor. Seja em 3D por modelagem tridimensional ou 2D, o profissional em computação gráfica trabalha direta ou indiretamente com pixels e suas compressões. Isso porque todo o nosso formato de vídeo, tanto monitores, televisores, celulares, cinema ou qualquer tipo de emissor de imagens atualmente são interligados por uma série de algoritmos e ferramentas padrões de construção e edição de imagens. Levando em conta que a maioria de criações e edições passam por um computador para um resultado melhor ou mais atraente.
Atualmente, as ferramentas para a construção de imagens (os softwares) lidam praticamente sozinhos com toda a parte algorítmica do hardware; quanto mais específico for o resultado de uma determinada ferramenta, mais real o objeto criado será. No entanto os programas mais poderosos são bastante flexíveis em relação a isso, ou seja, é possível em muitos softwares que novas ferramentas sejam criadas por usuários que tenham um mínimo de conhecimento em programação. É possível criar verdadeiros programas dentro desses programas, como é o caso do 3D Studio Max, software para criação de imagens em 3D da Autodesk, ou do Software livre Gimp para desenhos em 2D. Desta maneira, o usuário pode tanto criar algo que seja mais próximo a seu interesse como também diminuir em muito seu tempo de trabalho.

Modelagem computacional

Modelagem computacional é uma área de conhecimento multidisciplinar que trata da aplicação de modelos matemáticos e técnicas da computação à análise, compreensão e estudo da fenomenologia de problemas complexos em áreas tão abrangentes quanto as engenharias, ciências exatas, biológicas, humanas, economia e ciências ambientais.
Abrangência e interfacesA área que aqui conceituamos, é também denominada como simulação computacional científica e mecânica computacional. Trata-se de área que engloba o conjunto de conhecimentos relacionados aos métodos numéricos que envolvem os procedimentos de análise e solução de problemas complexos relacionados à Mecânica do Contínuo, às Ciências Exatas e às Ciências Naturais e Ciências do Meio Ambiente, a Fenômenos Biológicos, e à Mecânica Orgânica. Diz respeito ao estudo de áreas diversas, particularmente a Mecânica dos Sólidos e a Mecânica dos Fluidos, a Biofísica e Biomecânica, a Sistemas Ecológicos e Populacionais. Seu campo de aplicação, e escalas de observação, abrange as escalas espacial e do tempo, transientes e estacionários. A modelagem computacional, destina-se à solução de problemas complexos regidos por equações diferenciais ordinárias e equações diferenciais parciais, e a problemas de valores iniciais e de problemas de valores de contorno.

[editar] Origem e aplicaçõesReunindo um grupo de conhecimentos originados na Mecânica Clássica e na Engenharia Mecânica, passou a superá-las, e tem sido utilizado no meio acadêmico e técnico, denominando o conjunto de conhecimentos fortemente associados ao emprego de computadores na solução de problemas científicos e particularmente métodos numéricos, tais como:

1.nas Engenharias, em Ciências Tecnológicas, e nas Ciências Exatas: abrangendo a mecânica do contínuo, mecânica dos sólidos, mecânica dos fluidos, mecânica das estruturas, nanotecnologia e nanofísica, mecânica dos solos e fundações, mecânica da fratura, teoria da elasticidade, teoria das estruturas e resistência dos materiais, aspectos de teoria de projetos e projeto auxiliado por computador, engenharia assistida por computador, plasticidade e viscoelasticidade, escoamento de fluidos, escoamento e mecânica dos meios porosos, otimização e programação linear, métodos variacionais e métodos numéricos, algoritmos genéticos, computação paralela e computação distribuída, visualização científica, modelagem molecular, teoria do caos, e a álgebra em suas diversas teorias, dentre outras aplicações.
2.em Ciências Ambientais: em ecologia computacional, em modelagem de ecossistemas e biomas, na simulação e modelagem de trocas de massa e energia entre populações, destas para o meio ambiente, e entre ecossistemas, no desenvolvimento de métodos numéricos de solução de sistemas de EDOs e EDPs, estudos de impacto de desmatamento de mata nativa, das alterações ambientais decorrentes, simulação e projeção temporal. Modelos de implantação de indústrias, e simulação de impacto ambiental determinada pela implantação de sistemas de produção. Simulação, análise, modelagem e projeção temporal e espacial do fluxo das substâncias ou materiais envolvidos nas emissões industriais e no transporte destas no ambiente, das taxas de acumulação nas áreas de influência e projeção dos efeitos sobre as populações afetadas
3.em Ciências Biológicas e da Saúde: abrangendo a genômica e a proteômica computacionais, simulação de ação de proteínas e de seqüências de códigos genético, visualização espacial de seqüências genéticas, modelagem espacial de proteínas, modelagem estrutural de vírus e bactérias, análise de movimentos de seres microscópicos, modelagem hemodinâmica, de sistemas orgânicos, da ação farmacológica e da simulação virtual de drogas terapêuticas ou curativas. Modelos computacionais odontológicos, protéticos e de implantes. Modelagem de sistemas orgânicos biofísicos, biomecânicos e celulares.
Deve ser observado, também, que não se trata de área da Ciência da Computação, ainda que com esta inter-relacionada, e sim da possibilidade de aplicação de conceitos e idéias abrangendo as etapas de análise e compreensão do fenômeno sob estudo, estabelecimento de sistema de equações adequado a simulação do fenômeno em questão, desenvolvimento de softwares adequados à solução do problema científicos abordado, e aplicação à estudo teórico ou prático, compreendendo análise crítica dos resultados e calibração do modelo desenvolvido.

[editar] Métodos e técnicasAlguns dos métodos estudados na modelagem computacional com direcionamento à solução de problemas típicos das engenharias, das ciências exatas, biológicas e ambientais, são: Métodos dos Elementos Finitos, Métodos dos Elementos de Contorno, Método dos Volumes Finitos, Métodos das Diferenças Finitas, Método Integral e Variacional, Métodos Autoadaptativos, computação distribuída, Redes e Grids Computacionais, Computação Vetorial e Paralela Aplicada, Pré e Pós-processamento Gráfico e Otimização, Sistemas de Orientação Espacial, Modelagem do Espaço Humano, Simulação Computacional, realidade virtual e Protótipos Computacionais.

A modelagem computacional utiliza um conjunto de métodos, ferramentas e formulações direcionadas à solução de problemas complexos, envolvendo grande número de variáveis, volumosa massa de dados, processamento e manipulação de imagens. Desenvolvimento de modelos matemáticos e de métodos numéricos, bem como discretização e tratamento de meios contínuos estão no seu campo de abrangência.

A Modelagem Científica Computacional aplica então a computação a outras áreas do conhecimento. Ela permite que se criem modelos computacionais para situações em que é impossível ou muito caro testar ou medir as diversas soluções possíveis para um fenômeno a partir de modelos experimentais ou por solução analítica. Viabiliza a adoção de abordagem computacional, avançando além das limitações, completando e integrando-se a estas outras abordagens e muitas vezes sendo a única opção, à abordagem experimental e à analítica.

Por modelagem científica concebe-se não só a modelagem relacionada ao desenvolvimento de métodos numéricos e variacionais, como também à compreensão e desenvolvimento de modelos associados à fenomenologia física dos problemas complexos, aplicação de modelos já desenvolvidos, simulação, previsão e projeções temporais e espaciais do desenvolvimento de soluções para aqueles problemas.

[editar] Limitações em ciência cognitiva[2]Podem surgir problemas quando se simula processos cognitivos, por causa das limitações do computador. Foi sugerido por Palmer e Kimchi que se pode especificar uma teoria sucessivamente com mais detalhe até chegar ao ponto de ser possível escrever um programa de computador e que deve ser possível também de separar a partir de que ponto é que a implementação é dependente da linguagem de programação e máquina, em vez de ser depender do cérebro. É que o programa vai ter sempre aspectos que não estão relacionados com a teoria psicológica, mas que a tecnologia disponível impõe ao pesquisador. Um exemplo são as funcionalidades que são incluídas no programa para saber qual é o seu estado interno a determinada altura enquanto corre, e que, obviamente, não estão relacionadas com o funcionamento do cérebro.

O desempenho também pode ser problemático, porque também é limitado com a tecnologia disponível, sendo impossível comparar directamente as velocidades de respostas de ambos máquina e cérebro, embora possa haver uma relação de proporcionalidade entre os dois, ou no mínimo o produto de ambos deve estar bastante próximo.

[editar] Ver tambémEPETO
Modelos físicos
Modelo
IPRJ - Instituto Politécnico da UERJ que oferece doutorado pioneiro em Modelagem Computacional
Hidráulica
Engenharia Hidráulica
Sedimentos
Sedimentologia
Hans Albert Einstein
Mecânica dos fluidos
[editar] Referências

Engenharia de software

Engenharia de software é uma área da computação voltada à especificação, desenvolvimento e manutenção de sistemas de software, com aplicação de tecnologias e práticas de gerência de projetos e outras disciplinas, visando organização, produtividade e qualidade.[1]

Atualmente, essas tecnologias e práticas englobam linguagens de programação, banco de dados, ferramentas, plataformas, bibliotecas, padrões, processos e a questão da Qualidade de Software.

Os fundamentos científicos para a engenharia de software envolvem o uso de modelos abstratos e precisos que permitem ao engenheiro especificar, projetar, implementar e manter sistemas de software, avaliando e garantindo suas qualidades. Além disso, a engenharia de software deve oferecer mecanismos para se planejar e gerenciar o processo de desenvolvimento de um sistema de informação Sistema computacional, pois ambos se confundem.

Seguidores