E2 Sico

Fazer download em pdf ou txt
Fazer download em pdf ou txt
Você está na página 1de 41

SISTEMAS

COMPUTACIONAIS

Rosana Ressa

E-book 2
Neste E-Book:
Introdução���������������������������������������������������� 3
Portas lógicas���������������������������������������������� 5
Hierarquia de memória���������������������������12
Arquiteturas CISC e RISC�����������������������18
Pipeline���������������������������������������������������������21
Introdução a sistemas operacionais� 25
Redes de computadores:
fundamentos���������������������������������������������29
Considerações finais������������������������������34
Síntese���������������������������������������������������������36

2
INTRODUÇÃO
O Módulo 1 foi praticamente uma iniciação à ar-
quitetura e organização de computadores. Neste
módulo, vamos começar a aprofundar no assunto.
Dessa forma, examinaremos as portas lógicas e a
álgebra boolena, pois o objetivo é que você consiga
identificar os conceitos e os elementos básicos de
organização das portas lógicas, bem como entender
a representação matemática da lógica digital utiliza-
da pela Álgebra de Boole.

Na sequência, abordaremos a Hierarquia de Memória,


ou seja, você estudará inicialmente como a memória
é organizada e suas características principais. O intui-
to é demostrar que, para o funcionamento adequado
de um computador, é necessário dispor, nele mesmo,
de distintos tipos de memória e, com isso, você pos-
sa descrever o conceito e identificar os tipos.

Depois, você vai conhecer as arquiteturas RISC e


CISC, pois o objetivo é mostrar que elas são dife-
rentes, basicamente pela quantidade de instruções
que podem executar. Em seguida, fazendo um link
com esse tema, abordaremos a técnica de pipeline,
a qual permitiu que dois ou mais processamentos
fossem realizados ao mesmo tempo.

Dando continuidade, apresentaremos o conceito de


Sistemas Operacionais de forma introdutória e te-
órica. O intuito é você entender a função e o que é
implementado de acordo com as características de

3
cada equipamento. Embora o sistema operacional
seja um assunto amplo, por ora mostraremos so-
mente a relação de um sistema operacional com a
arquitetura do computador.

Por fim, estudaremos as Redes de Computadores,


momento em que você aprenderá o conceito básico
de funcionamento de uma rede de computadores, os
tipos e as classificações. A intenção deste tópico é
reconhecer e qualificar a importância dos sistemas
computacionais, das redes de computadores.

4
PORTAS LÓGICAS
As portas lógicas têm como base o sistema matemá-
tico de análise de circuitos lógicos, conhecido como
Álgebra de Boole, que foi desenvolvida por George
Boole (1815-1864), quem a publicou por volta de
1850. A álgebra de Boole expressa a operação de um
circuito na forma de uma operação algébrica, em que
suas constantes e variáveis podem assumir apenas
dois valores: 0 ou 1.

De acordo com Fávero (2011, p. 35), “esses circuitos,


chamados de circuitos digitais, são formados por
pequenos elementos capazes de manipular grande-
zas apenas binárias”. Tais elementos são conheci-
dos como portas lógicas, sendo que o termo porta
é empregado para dizer que um circuito realiza uma
operação lógica básica; os circuitos que incluem
as portas lógicas são designados circuitos lógicos
(CÓRDOVA JUNIOR; SANTOS; KISLANSKY, 2018).

Assim, a porta lógica é um alicerce para a consti-


tuição de qualquer sistema digital e, em geral, os
circuitos lógicos são incorporados a um circuito in-
tegrado que pratica uma determinada função com
a finalidade de desempenhar uma tarefa específica.

A álgebra booleana possui apenas três operações


básicas: AND (e), OR (ou) e NOT (não). A porta AND,
também chamada de conjunção binária, funciona
como a multiplicação. Ela retorna um 1 se todas as
entradas forem 1, senão retorna zero. Já a porta OR,

5
também conhecida como disjunção lógica, simula
uma soma de binários, admitindo 1 sempre que uma
ou mais de suas entradas forem 1. Na porta NOT, é
representada a negação binária de uma informação,
ou seja, será um bit 1 se o operando for zero, e será
zero caso contrário. Essa porta é conhecida também
como operador unário (FARIAS; MEDEIROS, 2013).

A Figura 1 apresenta um conjunto básico de portas


lógicas e suas respectivas tabelas-verdade.

6
AND

A
X
B

A B X
0 0 0

0 1 0

1 0 0

1 1 1

OR

A
X
B

A B X
0 0 0

0 1 1

1 0 1

1 1 1

NOT

A X

A X
0 1

1 0

Figura 1: Portas lógicas básicas e tabelas-verdade. Fonte: Adaptada


de Farias e Medeiros (2019).

7
REFLITA
Existem várias formas de aplicação para a lógi-
ca binária. Uma aplicação interessante da porta
AND seria na transferência de bits de dados de
um lugar para outro, como da memória para a
CPU. Diante disso, o objetivo seria o de garantir
que um bit de origem seja o próprio bit de destino.

Existem portas lógicas distintas que resultam das


portas lógicas apresentadas anteriormente. São elas
a NAND (não e) e a porta NOR (não ou). Para realizar
operações com essas portas, primeiramente é neces-
sário realizar a operação AND ou OR e, em seguida,
inverter seu resultado (Figura 2):

NAND NOR

A A
X X
B B

Figura 2: Símbolo gráfico NAND e NOR. Fonte: Adaptada de Fávero (2011).

Há também as portas lógicas especiais XOR e XNOR.


A porta XOR (ou exclusivo) tem apenas duas entradas
que, em sua saída, produz o nível lógico 1 quando
suas entradas apresentarem valores distintos entre
si, e o nível lógico zero quando as entradas forem
iguais (Figura 3):

8
XOR
A
X
B

A B X=A+B

0 0 0

0 1 1

1 0 1

1 1 0
Figura 3: Porta XOR e tabela-verdade. Fonte: Adaptada de Fávero (2011).

Com a porta XNOR (ou-não-exclusivo), ocorre o inver-


so da XOR. Assim, teremos o resultado 1 unicamente
se as duas entradas forem iguais (Figura 4):

9
XNOR
A
X
B

A B X=A+B

0 0 1

0 1 0

1 0 0

1 1 1
Figura 4: Símbolo típico da porta XNOR e tabela-verdade. Fonte:
Adaptada de Corrêa (2016).

FIQUE ATENTO
Uma tabela-verdade é, essencialmente, formada
por um conjunto de colunas, em que são listadas
todas as combinações prováveis entre as variá-
veis de entrada (à esquerda) e o resultado da fun-
ção (à direita).

10
Não obstante, um circuito lógico pode ter diferentes
portas lógicas e, consequentemente, suas tabelas-
-verdade poderão ter muitas entradas e muitas saí-
das, as quais podem ser concebidas por suas rela-
tivas equações booleanas (FÁVERO, 2011). A Tabela
1 apresenta uma síntese das funções algébricas de
portas lógicas.

Função lógica Função algébrica


AND X=AxB
OR X=A+B
NOT X=Ā
NAND X = 𝐴𝐴 .𝐵𝐵
NOR X = 𝐴𝐴 + 𝐵𝐵
XOR X= A⊕B
XNOR X=A ʘB
Tabela 1: Resumo das funções algébricas. Fonte: Adaptada de
Stallings (2010, p. 708).

Dada uma expressão algébrica qualquer, é possível


implementar o circuito lógico que a representa, uma
vez que o circuito lógico é a combinação das portas
lógicas pertinentes às operações que se concretiza-
rão a respeito das variáveis de entrada. Por exemplo,
a expressão algébrica: ), é esquematizada da seguin-
te maneira (Figura 5):

11
A
A+B
B

C A+C

Figura 5: Exemplo de circuito lógico. Fonte: Elaborada pela autora (2019).

Pode-se observar que o resultado obtido das opera-


ções é conduzido por fios, os quais, no desenho, são
representados por linhas simples.

SAIBA MAIS
Saiba mais sobre este conteúdo, assistindo a
Portas Lógicas (AND, OR, XOR, NOT), disponível
em: http://www.youtube.com/watch?v=4ENGYy6
8JqM&feature=related. Acesso em: 10 jul. 2019.

12
HIERARQUIA DE
MEMÓRIA
Uma das partes mais importantes de um sistema
computacional (ou computador) e que merece des-
taque é a memória. Em linhas gerais, o processador
apenas recebe os dados e os executa segundo de-
terminada programação; em seguida, ele os devolve,
não importando de onde saíram ou aonde vão.

Os programas a serem executados e os dados a se-


rem processados ficam na memória, posto que o
espaço para armazenamento de dados do proces-
sador é restrito. Nesse sentido, a memória é um ins-
trumento que possibilita ao computador armazenar
dados temporária ou permanentemente.
Segundo Rebonatto (2003), existem essencialmente
dois tipos de memória que compõem a memória
principal:
• ROM (Read-Only Memory): permite a leitura de da-
dos, porém, é lenta. Em contrapartida, não perde seu
conteúdo quando desligada.
• RAM (Random Access Memory): este tipo é ágil,
admite a leitura e escrita, contudo, seu conteúdo é
perdido assim que desligada.

A memória ROM é particularmente não volátil, pois


é sempre empregada para armazenar programas de
controle durante o processo de fabricação do chip.
Não há como modificar ou apagar seu conteúdo,

13
visto que, dentro da memória ROM, existem necessa-
riamente três programas: BIOS, POST e SETUP. Esses
programas podem ser compreendidos como proce-
dimentos básicos de inicialização de uma máquina.

Já a memória RAM tem como característica principal


a volatilidade, ou seja, as informações nela arma-
zenadas são perdidas na falta de energia elétrica.
Contudo, o processador acessa a memória RAM
praticamente o tempo todo, pois ela tem um tempo
constante de acesso a qualquer endereço. A esse
respeito, Patterson e Hannessy (2000) afirmam que a
CPU manipula um dado em 5 nanosegundos, enquan-
to a memória dilata um dado em 60 nanosegundos.

FIQUE ATENTO
O Basic Input/Output System (BIOS) inicializa to-
dos os dispositivos básicos do sistema (proces-
sador, placa de vídeo, unidades de disco, mouse
etc.), logo depois, confere a gerência ao sistema
operacional. O Power On Self Test (POST) é uma
sequência de testes ao hardware de um computa-
dor, efetivada pela BIOS, com a finalidade de ave-
riguar se o sistema está em estado operacional.
Já o SETUP é empregado para configurar alguns
parâmetros do BIOS, ou seja, é um sistema opera-
cional bem incipiente que tem como responsabi-
lidade colocar em funcionamento o computador
assim que você o liga.

Para o funcionamento apropriado de um sistema


computacional, é indispensável dispor, nele mesmo,

14
distintos tipos de memória. Por isso, primeiramente
a memória precisa ser organizada para que o proces-
sador saiba onde procurar um dado e onde alocar
outro já processado. Decompondo as memórias em
um subsistema, o objetivo almejado é um sistema
de memória com performance muito próximo ao da
memória mais rápida e o custo por bit associado ao
da memória mais barata (CORRÊA, 2016).

A Figura 6 apresenta uma pirâmide com a hierarquia


das memórias existentes em um computador. Ao
avaliar os diferentes tipos de memória, que variam
bastante em função de sua tecnologia de fabricação,
capacidade de armazenamento, velocidade e custo,
podemos dizer que é muito complexo projetar um
computador usando somente um tipo de memória.
Alto custo
Alta velocidade
Baixa capacidade
de armazenamento

Registradores

Memória
cache

Memória principal
(RAM e ROM)

Memória secundária
(disco rigido ou pen drive)

Baixo custo
Baixa velocidade
Alta capacidade de
armazenamento

Figura 6: Hierarquia de memória. Fonte: Adaptada de Stallings (2010).

15
A base da pirâmide simula, então, os dispositivos de
armazenamento de massa (memória secundária),
de baixo custo por bit armazenado, mas ao mesmo
tempo com baixa velocidade de acesso. A seta em di-
reção ao topo sugere que quanto mais velozes ficam
as memórias, mais alto será seu custo e menor sua
capacidade de armazenamento em um computador.

A memória secundária é, na maioria das vezes, me-


mória em disco magnético; a memória cache é tradi-
cionalmente uma memória estática (SRAM), enquan-
to a principal, ou simplesmente RAM, é uma memória
dinâmica (DRAM). A disposição da memória com
essa hierarquia é apropriada porque os programas
utilizam o princípio da localidade, que são:

a) Temporal – acessam periodicamente os


mesmos conjuntos de dados. Se um local de
dados é acessado, ele tenderá a ser acessado
novamente em breve.

b) Espacial – acessam dados que ficam pró-


ximos uns dos outros. Se um local de dados é
acessado, os dados com endereços próximos
tenderão a ser acessados em breve (CRISTO;
PREUSS; FRANCISCATTO, 2013, p. 51).

Conforme discorremos sobre a memória principal,


é importante enfatizar que ela é o sistema de me-
mória interna mais importante do computador, uma
vez que “cada posição da memória principal tem

16
um endereço único, e a maioria das instruções de
máquinas refere-se a um ou mais endereços da me-
mória principal” (CRISTO; PREUSS; FRANCISCATTO,
2013, p.127).

Os registradores são circuitos digitais centrados no


interior do processador que são capazes de arma-
zenar e deslocar dados binários, frequentemente
utilizados como dispositivo de armazenamento vo-
látil. Na maior parte dos computadores modernos,
quando falamos da execução das instruções de um
programa, os dados são levados da memória prin-
cipal para os registradores.

Dessa forma, as instruções que utilizam esses dados


são executadas pelo processador e, finalmente, os
dados são movidos de volta para a memória princi-
pal, o que representa sua taxa de transferência de
dados dentro do processador é bastante elevada e
consequentemente de alto custo.

A memória cache é um tipo de memória que é volátil


e fica situada perto do processador. A memória ca-
che tem basicamente duas funções: “Obter velocida-
de de memórias próxima das memórias mais rápidas;
Disponibilizar uma memória de grande capacidade
ao preço de semicondutoras mais baratas” (CORRÊA,
2016, p. 135). Ela contém os dados mais utilizados
pelo processador, o que reduz o número de opera-
ções em que é necessário trazer dados diretamente
da lenta memória RAM.

A memória secundária, também chamada de externa,


é empregada para armazenar arquivos de programas

17
e dados de forma mais permanente (não volátil). É
formada por distintos tipos de dispositivos, alguns
diretamente interligados ao sistema para acesso
imediato (discos rígidos) e outros que podem ser co-
nectados quando desejado (pen-drive), funcionando
como suplemento da memória principal para guardar
dados, não podendo ser endereçada diretamente
pela CPU.

SAIBA MAIS
Saiba mais sobre os detalhes que caracterizam
as especificidades de cada memória, como mó-
dulos, frequência, taxa de transferência e latên-
cia. Leia Arquitetura e Organização de Com-
putadores (p. 31-41), disponível em: https://bit.
ly/2JOfm7x. Acesso em 28 ago. 2019.

18
ARQUITETURAS CISC
E RISC
Segundo atributos do conjunto de instruções, os
processadores são dispostos em duas grandes fa-
mílias: Complex Instruction Set Computer (CISC), ou
computador com conjunto de instruções comple-
xo; e Reduced Instruction Set Computer (RISC), ou
computador com conjunto de instruções reduzido.
A arquitetura CISC ostenta um grande conjunto de
instruções, abrangendo tanto as simples quanto as
complexas; e por suportar mais instruções, sua exe-
cução fica mais lenta.

Para Fernandez (2015), trata-se de uma arquitetura


em que cada instrução pode efetuar várias opera-
ções de baixo nível, como uma leitura da memória,
uma operação aritmética e uma escrita na memória,
empregando uma única instrução, o que a transfi-
gura como extremamente versátil. No entanto, ela
torna os circuitos da CPU e da unidade de controle
bastante complicados. Um exemplo famoso dessa
arquitetura é a família Intel x86, que remonta ao final
da década de 1970.

Por sua vez, a arquitetura RISC tem como filosofia a


transferência da complexidade das operações para
o software, conservando no hardware somente as
operações primitivas (RICARTE, 1999). Um computa-
dor RISC caracteriza-se por contar com um número
pequeno de instruções, as quais fazem o mínimo

19
possível de operações simples e, por lidar com me-
nos instruções, as executa com mais rapidez. Um
exemplo de uso da arquitetura RISC é em celulares
e videogames por serem processadores menores,
mais baratos e que tendem a gastar menos energia.

REFLITA
Qual então é a melhor arquitetura?

Essa é uma questão difícil e sem resposta categó-


rica. A melhor resposta, no entanto, é a de que de-
pende do uso que se quer fazer do processador.

Uma diferença básica entre esses processadores é


que os modelos CISC utilizam mais memória prin-
cipal e cache, enquanto que os processadores RISC
utilizam mais registradores. Embora a arquitetura
CISC pareça menos vantajosa frente à arquitetura
RISC (do ponto de vista da performance), atualmente
podemos observar tecnologias híbridas que abrigam
as características de ambas as arquiteturas, a fim de
se obter o melhor desempenho possível.

Segundo Stallings (2010), reconheceu-se que os pro-


jetos RISC podem ser favorecidos com a inclusão de
alguns aspectos da arquitetura CISC e vice-versa. A
exemplo do projeto PowerPC, que não é composto
“puramente” de RISC, do mesmo modo que o Pentium
II incorpora algumas características do RISC.

20
SAIBA MAIS
Saiba mais das arquiteturas RISC e CISC, ao ler
o artigo Comparação entre as arquiteturas de
processadores RISC e CISC, de Luís Filipe Silva e
Vítor José Marques Antunes, que está disponível
em: http://www.inf.unioeste.br/~guilherme/oac/
Risc-Cisc.pdf.

21
PIPELINE
Sabe-se que o processo de buscar instruções na me-
mória é um gargalo relacionado à velocidade de exe-
cução de instruções. Para contornar essa restrição
em sistemas computacionais, aplica-se a técnica de
pipeline. Os pipelines são utilizados especialmente
no processamento de instruções e operações arit-
méticas, que podem ser favoravelmente subdividi-
das em etapas menores de execução, por ser uma
técnica de aceleração de execução de operações
inicialmente pertinente a processadores RISC, mas
que hoje em dia é empregada de forma ampla em
todos processadores modernos (REBONATTO, 2003;
RICARTE, 1999).

O princípio da técnica de pipeline é poder iniciar uma


nova tarefa antes que o resultado da tarefa ante-
rior na sequência de tarefas tenha sido gerado, ou
seja, os processamentos inerentes a um pipeline
são executados paralelamente, de maneira que to-
dos sejam finalizados ao mesmo tempo. Contudo, o
pipeline não suprime totalmente o tempo inativo em
um processador, visto que executar paralelamente a
função daqueles módulos inativos melhora de forma
significativa a execução de um programa.

Um ponto importante no projeto de um pipeline é o


equilíbrio entre várias unidades, também chamadas
de estágios, em que a instrução é desmembrada em
diversas partes e cada uma é manipulada por uma
parte dedicada do hardware, e todas elas podem ser

22
realizadas em paralelo (CORRÊA, 2016). A Figura 7
esboça um pipeline de 5 estágios (a) e o estado de
cada estágio como uma função de tempo (b).

S1 S2

Unidade de Unidade de
busca de decodificação
instrução de instução

S4 S3

Unidade de Unidade de
excecução busca de
de instrução operando

S5
Unidade de
gravação

1 2 3 4 5 6 7 8 9

1 2 3 4 5 6 7 8

1 2 3 4 5 6 7

1 2 3 4 5 6

1 2 3 4 5

1 2 3 4 5 6 7 8 9

Tempo
(b)

Figura 7: Exemplo de Pipeline. Fonte: Tanenbaum e Austin (2013, p. 51).

23
Nessa figura, observamos o funcionamento de um
pipeline. Tratemos agora do que acontece a cada está-
gio de acordo com Tanenbaum e Austin (2013, p. 50):

O estágio 1 busca a instrução na memória e


coloca-a em um buffer até que ela seja neces-
sária. O estágio 2 decodifica a instrução, deter-
mina seu tipo e de quais operando ela necessi-
ta. O estágio 3 localiza e busca os operandos,
tanto nos registradores como na memória. O
estágio 4 realiza o trabalho de executar a instru-
ção [...]. Por fim o estágio 5 escreve o resultado
de volta no registrador adequado.

A figura ainda mostra como o pipeline trabalha em


função do tempo durante cada ciclo de clock:

Durante o ciclo de clock 1, o estágio S1, está


trabalhando na instrução 1, buscando-a na me-
mória. Durante o ciclo 2, o estágio S2 decodi-
fica a instrução, enquanto o estágio S1 busca
a instrução 2. Durante o ciclo 3, o estágio S3
busca os operandos para a instrução 1, o es-
tágio 2 decodifica a instrução 2 e o estágio 1
busca a terceira instrução. Durante o ciclo 4,
o estágio 4 executa a instrução 1, S3 busca os
operandos para instrução 2, S2 decodifica a
instrução 3 e S1 busca a instrução 4. Por fim,
durante o ciclo 5, S5 escreve (grava) o resultado
da instrução 1 de volta ao registrador, enquanto
os outros estágios trabalham nas instruções
seguintes (TANENBAUM; AUSTIN, 2013, p. 51).

24
Dessa forma, o tempo total para efetivar uma exe-
cução em um pipeline é ligeiramente maior do que
o tempo para realizar a mesma operação sem pipe-
line, já que um sistema de pipeline demanda mais
recursos do que um que executa uma instrução de
cada vez, pois seus estágios não podem reutilizar os
recursos de um estágio anterior. Contudo, as técnicas
modernas de pipeline cuja finalidade é aumentar o
desempenho de computadores, ao construir novas
alternativas arquiteturais.

FIQUE ATENTO
Ciclo de clock (ciclos de relógio) é o tempo que a
CPU gasta para executar uma instrução, em vez
de informar o tempo de execução em segundos,
geralmente é usado ciclos.

Buffer (um tipo de armazenamento) é uma pe-


quena área de memória temporária empregada
para melhorar a velocidade de acesso a um de-
terminado dispositivo.

Podcast 1

25
INTRODUÇÃO
A SISTEMAS
OPERACIONAIS
Grande parte dos usuários de sistemas computa-
cionais já teve alguma experiência com um Sistema
Operacional (SO), que é extremamente importante,
pois torna possível a utilização de um computador.
Um sistema operacional “é um programa que controla
a execução de programas, aplicativos e age como
uma interface entre o usuário e o hardware do com-
putador” (STALLINGS, 2010, p. 241). Mesmo assim,
é difícil reconhecer de modo absoluto o que é um
SO. Esse problema ocorre porque os SO’s exercem
basicamente dois papéis não relacionados: estender
a máquina e gerenciar recursos, que podemos deno-
minar como conveniência e eficiência.

FIQUE ATENTO
Um sistema computacional (ou baseado em
computador) abarca um conjunto de dispositi-
vos eletrônicos (hardware) capazes de processar
informações de acordo com um programa (sof-
tware); ele automatiza ou apoia a execução de
tarefas humanas por meio do processamento de
informações.

26
O SO é como uma máquina estendida que trabalha
com a abstração, uma vez que a arquitetura (conjunto
de instruções, disposições de memória, E/S e com-
posição de barramentos na maioria dos computado-
res em nível de linguagem de máquina) é primitiva e
evolve programação complexa. Então, o SO controla
a inicialização, sinalização, reinicialização dessas uni-
dades, de modo mais simples e abstrato, escondendo
os detalhes do hardware, provendo uma interface mais
conveniente para a utilização do sistema (STALLINGS,
2010). Como gerenciador de recursos, ele controla o
processamento, o armazenamento e a transferência
de dados, realizando o compartilhamento de duas
maneiras: no tempo e no espaço.

Quando se compartilha o recurso no tempo, dife-


rentes usuários esperam por sua vez para usar um
recurso. Por exemplo, com apenas uma CPU e múlti-
plos programas, o SO faz a alocação da CPU em um
programa e depois, se ele foi suficientemente execu-
tado, outro programa consegue seu uso, em seguida,
outro e, por fim, o primeiro programa novamente.

No compartilhamento do espaço, os usuários não


aguardam pela sua vez, cada um toma sua parte no
recurso requerido. Um exemplo disso é o comparti-
lhamento da memória principal que, geralmente, se
divide entre os múltiplos programas em execução.
Desse modo, cada um pode operar ao mesmo tempo
na memória (FARIAS; MEDEIROS, 2013).

Os sistemas operacionais mais conhecidos são


Windows, MacOS e Linux. Mas algumas caracterís-

27
ticas os diferenciam devido à arquitetura do hardware
em que irão executar, em suma, um SO é um sistema
de computação interativo ou um sistema de proces-
samento em lotes (batch) (STALLINGS, 2010).

Em um sistema interativo, o usuário/programador


interage diretamente com o computador por meio
de periféricos (monitor ou teclado) para requisitar
a execução de tarefas ou realização de transações;
assim, dependendo da natureza da aplicação, é pos-
sível a comunicação durante a execução da tarefa. De
forma oposta, o processamento em lotes é realizado
pelo agrupamento de um programa a outros progra-
mas de usuários distintos para serem submetidos à
execução por um operador de computador. O usuário
não tem acesso às informações durante o processa-
mento. Quando termina a execução, os resultados
são impressos ao usuário, e essa especificidade os
torna mais raros hoje em dia.

Em um cenário independente, especifica-se se o sis-


tema emprega multiprogramação ou não. A multi-
programação tem por objetivo manter o processador
o mais ocupado possível, o que o faz trabalhar em
mais de um programa de cada vez, já que vários pro-
gramas são carregados na memória e o processador
reveza rapidamente entre eles. Uma alternativa a
esse sistema é o sistema de uniprogramação, que
atua somente com um programa de cada vez.

28
REFLITA
Imagine a seguinte situação: você chega em casa
e, ao ligar seu notebook, constata que há um pro-
blema na inicialização do sistema operacional. A
questão é que você não tem tempo para leva-lo
a uma assistência técnica, pois precisa imprimir
um documento importante que está armazenado
no seu Hard Drive (HD).

Quais caminhos você acha que deveria seguir


para resolver o problema e quais conceitos estão
envolvidos?

29
REDES DE
COMPUTADORES:
FUNDAMENTOS
A interconexão de computadores é um axioma comum
em espaços corporativos e, mais atualmente, em am-
bientes domésticos. Uma rede de computadores é
composta por um conjunto de módulos processadores
preparados para trocar informações e compartilhar
soluções, que estão conectados por um sistema de
comunicação por meio de cabos, fibras óticas ou links
sem fio (CÓRDOVA JUNIOR; SANTOS; KISLANSKY,
2018). E um sistema computacional pode ser com-
posto de uma rede de computadores, dependendo da
conjuntura e necessidade. Sob essa ótica, uma rede
precisa ser capaz de atender a três critérios básicos:

1. Performance: o desempenho de uma rede de


computadores pode ser aferido por meio de alguns
indicadores:

I) Tempo de tráfego: tempo necessário para


que uma mensagem de rede trafegue de um
dispositivo para outro da rede.

II) Tempo de resposta: tempo decorrido entre o


envio da informação e a sua resposta.

III) Eficiência de software: métrica utilizada


para verificar o tráfego de rede com softwares
específicos.

30
IV) Número de usuários: a quantidade de usu-
ários conectados a uma rede influencia direta-
mente na performance da rede.

V) Capacidade de hardware: capacidade de


processamento de dados dos dispositivos físi-
cos que compõem a rede também influencia na
sua performance (CÓRDOVA JUNIOR; SANTOS;
KISLANSKY, 2018, p. 184).

2. Confiabilidade: em redes de computadores, a


confiabilidade diz respeito à preservação de dados
de qualquer usuário ou a acesso não permitido. Ao
navegar pela rede, os dados trafegam por múltiplas
camadas de rede e podem ser rastreados, caso ne-
cessário. Por esse motivo, a proteção dos dados é
um atributo indispensável em redes de computado-
res. Uma rede pode ter a sua confiabilidade avaliada
pela taxa de pacotes de rede extraviados no processo
de comunicação. Apesar disso, os protocolos de co-
municação de rede apresentam tolerância a falhas,
o que assegura a retransmissão de pacotes de rede
que foram perdidos.

3. Escalabilidade: em uma rede de computadores,


a escalabilidade indica sua habilidade de manipular
uma porção crescente de trabalho de forma estável,
ou estar organizada para crescer, sem que seja per-
dida a qualidade do serviço de rede.

Assim, em uma rede de computadores, todas as


atividades que envolvam duas entidades comuni-
cantes remotas são administradas por um protoco-
lo. Computadores, placas de redes, fios de cobre e

31
roteadores são instrumentos físicos que compõem
uma rede. Entretanto, análogo ao corpo humano, tais
instrumentos carecem de uma “consciência” para
torná-los úteis. Podemos chamá-las de protocolos
de rede ou protocolos de internet.

“Basicamente, um protocolo é um acordo entre as par-


tes que se comunicam, estabelecendo como se dará a
comunicação” (TANENBAUM, 2003, p. 23). Logo, “um
protocolo define o formato e a ordem das mensagens
trocadas entre duas entidades ou mais entidades co-
municantes, bem como as ações realizadas na trans-
missão e/ou no recebimento de uma mensagem no
outro evento” (KUROSE; ROSS, 2009, p. 7).

Nas comunicações, existem protocolos que atuam


em diferentes camadas e com funções distintas. Para
a difusão de uma sequência de bits através de um
fio de cobre, entre duas placas de rede contidas em
dois computadores que se comunicam, é imperativo
a implementação de protocolos de comunicação
em seus hardwares, admitindo assim a codificação/
decodificação da informação durante a transmissão
no meio físico. O mais conhecido é TCP/IP, abrevia-
tura de dois protocolos combinados: Transmission
Control Protocol (TCP - Protocolo de Controle de
Transmissão) e Internet Protocol (IP - Protocolo de
Internet); juntos, entre todos os protocolos de rede,
compõem a base de envio e recebimento de infor-
mações por toda a internet.

Outro ponto importante é a classificação de redes


de computadores. A técnica mais comum de classi-

32
ficação de redes de computadores está relacionada
com seu alcance. Nesse sentido, temos as principais
categorias:
• LAN (Local Area Network): também conhecida
como “rede local”, a LAN interliga computadores
localizados dentro de um mesmo ambiente físico.
Pode abranger uma empresa ou redes relativamen-
te pequenas (dentro de uma sala), sendo possível
a troca de dados e recursos entre os dispositivos
participantes.
• MAN (Metropolitan Area Network): uma rede de
área metropolitana é análoga a uma LAN, porém, sua
extensão abrange uma cidade ou um campus inteiro
e é formada pela conexão de várias redes locais.
• WAN (Wide Area Network): ou “rede de longa dis-
tância”, é uma rede de comunicação que abarca uma
ampla área geográfica, como cidades, países ou con-
tinentes. Pode ser privada ou pública. Um exemplo
prático de WAN é a internet, a maior WAN do mundo.
Seu funcionamento se dá pelo emprego de provedo-
res de acesso, conectando diversas LANs ou MANs.
• WLAN (Wireless Local Area Network): rede de área
local sem fio capaz de conectar dispositivos eletrôni-
cos próximos e transmitir dados e informações sem
o uso de cabeamento.
• VPN (Virtual Private Network): rede privada virtual é
uma tecnologia que cria uma conexão criptografada
e encapsulada em uma rede menos segura, como a
internet. Como a internet é uma rede pública, existe a
necessidade de estabelecer alguns mecanismos de

33
segurança para que as informações trocadas entre os
computadores de uma VPN não sejam lidas por outros.

SAIBA MAIS
Saiba mais sobre esse conteúdo, assistindo
a Redes de Computadores: Introdução às Re-
des de Computadores (Aula 1), que se encon-
tra disponível em: https://www.youtube.com/
watch?v=1csTmCZj-io. Acesso em: 10 jul. 2019.

De acordo com Stallings (2010), à medida que a inter-


net cresce, crescem também as necessidades com-
putacionais nessa área, por conta do emaranhado
de interações dadas cotidianamente nesse espaço.
Assim, a implantação de sistemas computacionais
modernos é exigida pela alta conectividade das re-
des de computadores devido ao grande volume de
dados que nelas trafegam. Portanto, é importante
saber como que uma rede de computadores, sob a
ótica de sistemas computacionais, funciona, além
de entender que quando essa estrutura é bem defi-
nida e administrada, a chance de sucesso no bom
funcionamento aumenta significativamente.

Podcast 2

34
CONSIDERAÇÕES
FINAIS
Em sistemas computacionais, é muito importante
que o aluno tenha uma visão holística do funciona-
mento dos computadores. Com a tecnologia avan-
çando a cada dia, ela traz consigo uma crescente
complexidade de processos. Notadamente, uma
enorme quantidade de informações circula hoje em
computadores no mundo todo. Para acompanhar
esses avanços e o enorme volume de atualizações
diárias, os profissionais da tecnologia da informa-
ção devem estar sempre atentos não só às mudan-
ças, mas também à definição de alguns conceitos
necessários para o entendimento da arquitetura e
organização de computadores.
Inicialmente, expomos as portas lógicas, uma vez
que executam operações sobre operadores binários
(0 e 1), e podem ser aplicadas em diversas finalida-
des. As principais portas são AND, OR, NOT e XOR.

Em seguida, falamos da hierarquia de memórias,


da diferença entre RAM e ROM, a importância da
memória principal para um computador e como sua
performance está intrinsicamente ligada ao custo.
Depois, apresentamos as arquiteturas RISC e CISC.
A RISC emprega um número pequeno de instruções,
ao passo que a CISC é melhor com processamen-
tos complexos, por trabalhar com um conjunto bem
maior de instruções. Uma breve discussão sobre a

35
utilização das duas arquiteturas em computadores
modernos foi abordada.

Você aprendeu o conceito de Pipeline e como o pro-


cessamento dos estágios de um pipeline são execu-
tados paralelamente, de forma que todos terminem
ao mesmo tempo. Saímos do cenário dos processa-
dores e fomos direto para os Sistemas Operacionais,
mostrando as principais funções e sua interação com
o hardware. O objetivo de aprendizagem desse tópico
foi perceber que ele é responsável pela gerência e
coordenação das atividades de compartilhamento
dos recursos do computador.

Concluímos o módulo estudando as redes de compu-


tadores. O intuito foi fazer com que você seja capaz
de verificar a utilidade das redes de computadores,
compreender o conceito de protocolos e perceber
a importância da internet. O entendimento básico
do funcionamento de uma rede de computadores
é essencial para facilitar a utilização dos recursos
disponíveis em sistemas computacionais modernos.
O assunto é extenso, e aqui foi explorado o conhe-
cimento básico em relação à arquitetura e organi-
zação de computadores, mas você pode aprender
muito mais com as referências indicadas no texto. É
muito importante um constante aprofundamento no
conteúdo para tornar-se possível o trabalho com os
sistemas computacionais atuais, de complexidade
e calibre sempre crescentes.

36
Síntese

SISTEMAS
COMPUTACIONAIS

Este módulo deu continuidade aos temas


relacionados à arquitetura e organização de
computadores. Primeiro, foi abordado o
tópico Portas Lógicas, mostrando que elas
são utilizadas para realizar operações
aritméticas, a partir de portas lógicas
básicas, uma vez que trabalham com sinais
lógicos de entrada e saída e que podem ser
expressos por tabela-verdade; e isso
demonstra o poder da matemática no auxílio
dos procedimentos computacionais.

Em seguida, apresentou-se a Hierarquia de


memórias, muito importante para o
entendimento do armazenamento e
processamento de informações em um
sistema baseado em computador, expondo
então o conceito de memória principal,
cache e registradores.

Foi discutida ainda a arquitetura de


processadores RISC/CISC e suas
diferenças. E depois foi apresentado o
Pipeline e como se dá sua execução. No
tópico seguinte, abordaram-se os conceitos
de Sistemas Operacionais, com a intenção
de que você entenda que como se faz o
intermédio entre o hardware e o usuário,
exercendo basicamente dois papéis não
relacionados, a saber, máquina estendida e
gerenciador de recursos, que podem ser
denominados como conveniência e eficiência.

Por fim, estudamos as Redes de


Computadores, o conceito básico de
funcionamento de uma rede de
computadores, os tipos e as classificações, e
o objetivo desse tópico é devido à sua
importância para os agentes computacionais
ligados à internet.
REFERÊNCIAS
BIBLIOGRÁFICAS
& CONSULTADAS
CÓRDOVA JUNIOR, R. S.; SANTOS, S. C. B.;
KISLANSKY, P. Fundamentos computacionais. Porto
Alegre: SAGAH, 2018.

CORRÊA, A. G. D. Arquitetura e Organização de com-


putadores. São Paulo: Pearson Education do Brasil,
2016. [Biblioteca Virtual]

CRISTO, E. F.; PREUSS, E.; FRANCISCATTO, F.


Arquitetura de computadores. Universidade Federal
de Santa Maria, Colégio Agrícola de Frederico
Westphalen, 2013.

DELGADO, J.; RIBEIRO, C. Arquitetura de computado-


res. 5. ed. Rio de Janeiro: LTC, 2017. [Minha Biblioteca]

FARIAS, G.; MEDEIROS, E. S. Introdução à


Computação, 2013. Disponível em: http://producao.
virtual.ufpb.br/books/gilbertofarias/introducao-a-com-
putacao-livro/livro/livro.pdf. Acesso em: 28 ago. 2019.

FÁVERO, E. M. B. Organização e arquitetura de com-


putadores. Pato Branco: Universidade Tecnológica
Federal do Paraná, 2011.
FERNANDEZ, M. P. Informática: Arquitetura de
Computadores. 3. ed. Fortaleza: Editora UECE, 2015.
Disponível em: http://www.uece.br/computacaoead/
index.php/downloads/doc_download/2123-arquitetu-
radecomputadores. Acesso em: 08 jul. 2019.

GRAIG, J. J. Robótica. 3. ed. São Paulo: Person


Education do Brasil, 2012. [Biblioteca Virtual].

KUROSE, J. F.; ROSS, K. W. Redes de Computadores


e a Internet: Uma abordagem top-down. 3. ed. São
Paulo: Person Education, 2009.

LESKOVEC, J.; RAJARAMAN, A.; ULLMAN, J. D.


Mining of Massive Datasets. 2. ed. Cambridge
University Press, 2014.

PATTERSON, D. A.; HENNESSY, J. L. Organização


e projeto de computadores: a interface hardware/
software. 2. ed. Rio de Janeiro: LTC, 2000.

REBONATTO, M. T. Organização de Computadores:


Notas de aula. Passo Fundo, 2003. Disponível em:
http://usuarios.upf.br/~rebonatto/tsi120.htm. Acesso
em: 06 jul. 2019.

RICARTE, I. L. M. Organização de Computadores.


FEEC/UNICAMP, 1999. Disponível em: http://www.
dca.fee.unicamp.br/courses/EA960/. Acesso em:
08 jul. 2019.
ROGERSM D, L. Transformação digital: repensando o
seu negócio para a era digital. São Paulo: Autêntica
Business, 2017.

SEBASTIÃO, R. et al. Fundamentos computacionais.


Porto Alegre: SAGAH, 2018. [Minha Biblioteca].

STALLINGS, W. Arquitetura e organização de com-


putadores. 8. ed. Person Pratice Hall, 2010.

TANEMBAUM, A. S. Redes de Computadores. 4. ed.


São Paulo: Campus, 2003.

TANENBAUM, A. S.; AUSTIN, T. Organização estru-


turada de computadores. 6. ed. São Paulo: Pearson
Prentice Hall, 2013.

TOCCI, R. J.; WIDMER, N. S.; MOSS, G. L. Sistemas


digitais: princípios e aplicações. 10. ed. São Paulo:
Pearson Prentice Hall, 2007. [Biblioteca Virtual].

Você também pode gostar