Edit page

Camada de Ligação de Dados

O objetivo desta camada é tratar da transferência de dados numa rede local entre dois dispositivos - entre um host e um router ou entre dois routers - pertencentes à mesma rede, ou seja, trata-se de como os dispositivos falam diretamente uns com os outros.

Serviços da camada

Esta camada oferece diferentes serviços:

Framing e acesso a Links:

  • Encapsula o datagrama numa trama - nome dado a um pacote nesta camada, adicionando cabeçalho e trailer;
  • Protocolo MAC (Medium Access Control) para aceder ao meio compartilhado; São usados endereços MAC nos cabeçalhos de tramas para identificar a origem e o destino, apenas dentro da mesma rede.

Entrega confiável entre nós adjacentes:

  • Soluções semelhantes às adotadas na camada de transporte;
  • Raramente usado em links com baixa taxa de erros de bits (e.g. fibra óptica). Já os links sem fio (e.g. Wi-Fi), têm taxas de erro altas.

Deteção de erros:

  • Deteta erros causados por atenuação de sinal e ruído;
  • O recetor pode detetar a presença de erros, sinalizando o remetente para reenviar ou descartando a trama.

Correção de erros:

  • Para além de detetar, o recetor pode identificar e corrigir erros de bits sem recorrer ao reenvio.

Controlo de fluxo:

  • Ajustar o ritmo entre os nós adjacentes que enviam e recebem.

Links half-duplex e full-duplex:

  • Half-duplex: É possível transmitir para os dois sentidos, mas só num sentido de cada vez.
  • Full-duplex: É possível transmitir para os dois sentidos ao mesmo tempo.

Terminologia

  • Nós / Nodes - hosts e routers (ou seja, quem comunica);
  • Ligações / Links - Canais de comunicação que conectam nós adjacentes ao longo do caminho de comunicação. Por exemplo, links por fio, links sem fio, LANs, etc.
  • Trama / Frame - Pacote da camada de Ligação de Dados. Encapsula um datagrama.

Usando a terminologia, o objetivo desta camada é

transferir datagramas de um nó para o nó fisicamente adjacente num link.

Endereços MAC

A camada de ligação de dados está implementada na NIC - interface de rede de cada host, que liga diretamente aos buses de hardware.

Nesta camada, são usados endereços MAC. Um exemplo de um endereço MAC é o seguinte: A1:B2:C3:24:55:F1.
Cada placa de rede tem um endereço MAC associado, que é como se fosse um identificador específico do dispositivo (como, por exemplo, o número de Cartão de Cidadão é para as pessoas).

Estes endereços têm propósitos diferentes dos endereços IP: os endereços MAC têm um propósito mais local enquanto que os endereços IP têm um contexto mais geográfico.
O que cria esta distinção é o facto de os endereços MAC serem intrínsecos das placas de rede, ou seja, são como uma fingerprint; Já os endereços IP podem ser alterados facilmente e é possível ser construído um sistema e uma divisão hierárquica da sua distribuição, através das máscaras de rede.

Analogia

Podemos pensar em endereços MAC e endereços IP como o número de Cartão de Cidadão e a morada atual de uma pessoa:

  • Endereço MAC - Tal como o número de CC, identifica inequivocamente a pessoa - é um identificador associado a ela que não pode ser repetido. Contudo, não é possível encontrar a pessoa a partir do seu número de CC;
  • Endereço IP - Tal como a morada atual, identifica a localização da pessoa. A localização da pessoa é volátil, ou seja, pode alterar (pode ir de férias, pode ir numa viagem de trabalho, etc.) e sabendo o nome desse local, é fácil da a encontrar por causa da hierarquia presente: Por exemplo, se estiver em Portugal, Lisboa, Rua João Pedro, Prédio 14, 4ºDto, podemo-la encontrar:
    1. Algures no país Portugal;
    2. Dentro de Portugal, algures no distrito de Lisboa;
    3. Dentro de Lisboa, algures na Rua João Pedro;
    4. Dentro nessa rua, algures no prédio 14;
    5. Dentro desse prédio, na casa do lado direito do 4º Andar.

Para um dado endereço MAC, os três primeiros bytes identificam o fabricante enquanto que os os três últimos bytes identificam o equipamento.

Nestes endereços também é possível ser feito um broadcast, fazendo-o para o endereço FF:FF:FF:FF:FF:FF. Ao enviar um pacote para esse endereço, esse pacote será reencaminhado para todos os hosts da rede local.

Protocolo ARP - Address Resolution Protocol

Um router recebe um pacote por IP de algum lado. Como é que ele é entregue ao host certo?

O router precisa de saber o endereço MAC correspondente ao endereço IP recebido.
Para tal, usa-se o protocolo ARP (Address Resolution Protocol):

  1. O router faz um ARP Request, ou seja, um broadcast, enviando para o endereço FF:FF:FF:FF:FF
    a pergunta: "Quem tem este endereço IP?"
  2. O host com o endereço IP responde com o seu endereço MAC.

De forma a não se estarem sempre a repetir estes pedidos, os hosts guardam numa tabela (tabela ARP), o mapeamento entre endereço IP e endereço MAC - (endereçoIP, endereçoMAC, TTL).

Exemplo inter-redes

Assumindo que existem os hosts A e B e o router R, o host A quer enviar um pacote para o host B (ele sabe o seu endereço IP).
A interação é a seguinte:

  1. O IP de destino não está na rede local, logo a placa de rede de A nunca conseguirá comunicar com a de B. Logo, é necessário fazer reencaminhamento para outra rede, por isso, o envio tem que ser feito para o router. O host A não sabe o endereço MAC do router (consultou a sua tabela ARP) e, então, faz um ARP Request para descobrir o endereço MAC associado ao router (ele sabe o endereço IP do router pois é o default gateway da rede);
  2. O router responde com o seu endereço MAC;
  3. O host A envia-lhe o pacote;
  4. O router não sabe o endereço MAC do endereço IP do host B, então faz um ARP Request;
  5. O host B responde-lhe com o seu endereço MAC;
  6. O router envia-lhe o pacote;

Esquematizado, Routing para outra LAN

Nas próximas interações entre A e o router e entre o router e o B, não vão ser necessários fazer ARP Requests pois A guardou o endereço MAC do router na sua tabela.

Deteção de Erros de Transmissão

Os dados, por diversos motivos, podem sofrer erros de transmissão, fazendo com que um ou mais bits venham trocados.
Para detetar esses erros, existem várias formas:

Bit de Paridade

É uma forma antiga de detetar erros.
No fim da transmissão, era acrescentado um bit que dependia do número de bits totais da mensagem:

  • Se o número de bits fosse par, colocava-se um 0;
  • Se o número de bits fosse ímpar, colocava-se um 1.

Não é uma forma muito boa pois não deteta um número par de erros.

CRC - Cyclic Redundancy Check

Muito usado atualmente. É feita uma operação matemática, usando divisão de polinómios.

Para tal, usa-se um polinómio gerador G(x)G(x) de grau nn juntamente com uma mensagem de mm bits, que é vista como um polinómio M(x)M(x) de grau menor que MM.

A computação do CRC é feita da seguinte forma:

  1. Calcula-se o dividendo D(x)=xn×M(x)D(x) = x^n \times M(x), ou seja, faz-se um shift para a esquerda de M(x)M(x) de nn unidades;
  2. O divisor é G(x)G(x);
  3. Converte-se o dividendo e o divisor em bits (Por exemplo, se G(x)=x3+x2+1G(x) = x^3 + x^2 + 1, este passa a 11011101);
  4. Faz-se a divisão D(x)÷G(x)D(x) \div G(x). A divisão é feita à mão, como se fosse uma divisão normal - a única diferença é que estão a ser usados bits, ou seja, é feita a diferença binária;
  5. Desta divisão, resulta o resto R(x)R(x);
  6. É enviada a mensagem T(x)=xn×M(x)+R(x)T(x) = x^n \times M(x) + R(x), onde o ++ representa a concatenação.

Um erro será detetado se a mensagem recebida não for divisível por G(x)G(x).

O video seguinte explica como aplicar o algoritmo:

Este algoritmo é facilmente implementado em hardware, usando registos de desvio.

Colisões de broadcast

Quando é feito um broadcast FF:FF:FF:FF:FF:FF, este é partilhado por todos os membros da rede.
Isto implica que o canal possa sofrer colisões muito facilmente, bastando que um nó receba dois ou mais sinais ao mesmo tempo.

Protocolos Multiple Access Control - algoritmos distribuídos que determinam como é que os nós partilham um canal, ou seja, quando é que um dado nó pode transmitir.

Existem vários protocolos que implementam o acesso de formas diferentes:

Particionamento de canal fixo:

  • Dividir o canal em "pedaços" menores (intervalos de tempo, frequências, códigos, etc.);
  • Alocar um pedaço para o nó para uso exclusivo.

Alocação dinâmica ("um de cada vez"):

  • Os nós tomam a vez (mas os nós com mais dados para enviar podem transmitir com mais frequência);
  • Poll / seleção;
  • Passagem de um token.

Acesso Aleatório:

  • O canal não é dividido, logo permite colisões;
  • É possível recuperar das colisões.

Particionamento de canal fixo

FDMA - Frequency Division Multiple Access

Neste tipo de particionamento, o espetro de canal é dividido em faixas de frequência. Assim, é atribuída a cada estação uma faixa de frequência fixa, mas o tempo de transmissão não utilizado nas faixas de frequência não é aproveitado.

Similar à FDM de Circuit Switching.

TDMA – Time Division Multiple Access

O acesso ao canal é feito em rondas. É atribuído a cada host uma fatia temporal em cada ronda. Também aqui, o tempo não utilizado não é aproveitado.

Similar à TDM de Circuit Switching.

CDMA – Code Division Multiple Access

Cada utilizador tem acesso à frequência completa, durante todo o tempo.
São usados diferentes códigos para distinguir os utilizadores.

Particionamento de canal fixo

Neste tipo de particionamento, o canal é fixo e é antes feita uma divisão por regras de ordenação dos hosts.

Alocação dinâmica

Poll / Select

Um computador central controla a atividade dos outros.

Token Passing

Um token que dá a permissão de transmissão é passado entre os hosts.
Quando um host acaba de transmitir, passa o token para outro host.

Esta medida não é ideal se não existir muito tráfego, pois existe dependência que os hosts transmitam mensagens.

Acesso aleatório

Neste tipo de particionamento, não existe qualquer divisão do canal nem coordenação, ou seja, quando um nó tem um pacote para enviar, envia-o imediatamente à rate máxima.

Os protocolos que seguem este particionamento indicam como detetar colisões bem como recuperar delas:

ALOHA

Foi criado na Universidade de Hawaii (daí o seu nome).
É um protocolo simples que não tem sincronização.
Existe uma colisão se duas ou mais tramas se sobrepuserem, sendo programada uma retransmissão para um instante futuro aleatório.

Slotted ALOHA

É igual ao protocolo anterior, mas o tempo é dividido em slots temporais do mesmo tamanho.
Os nós só podem começar a transmitir no início de um slot.

CSMA - Carrier Sense Multiple Access

Baseia-se em não causar interrupções:

  • Se o canal estiver calado, transmite a trama inteira;
  • Se o canal estiver ocupado, adia a transmissão.

Contudo, ainda podem existir colisões devido ao tempo de propagação, o que implica que toda a transmissão de um pacote tenha que ser descartada.

CSMA/CD - CSMA com Deteção de Colisões

É uma versão aprimorada do protocolo anterior que consegue detetar colisões mais rapidamente. Ao ser detetada uma colisão, as transmissões são imediatamente abortadas, reduzindo a ocupação do canal.

Resumo dos protocolos

Particionamento de canal fixo:

  • Eficientes com uma carga alta e constante de todos os nós;
  • Ineficientes em cargas baixas ou desequilibradas.

Alocação dinâmica ("um de cada vez"):

  • Compartilham o canal de forma eficiente e justa em cargas altas;
  • Baixa carga: ineficiente, pois os nós ativos precisam de esperar pelos nós com pouca ou sem atividade para "passarem a vez";

Acesso Aleatório:

  • Eficientes em carga baixa porque apenas um único nó pode utilizar o canal num dado momento;
  • Carga alta: sobrecarga de colisão.

IEEE 802.3 - Ethernet

O IEEE 802.3 é um standard que introduz a tecnologia de LAN cablada chamada Ethernet.
Existem várias topologias de rede:

Topologias de rede

  • Bus - um cabo principal partilhado por vários computadores. Todos os hosts ouvem todos os hosts e está muito sujeito a colisões.

Topologia Bus
Topologia Bus

  • Estrela - No lugar da ligação ser feita a um fio, é antes feita a uma tomada na parede. As tomadas nas paredes são ligações que se ligam todas a um armário onde estão equipamentos de rede usados para espalhar o tráfego.
    Inicialmente usavam-se hubs, dispositivos que apenas repetem o sinal para todas as portas (basicamente, fazem sempre broadcast);
    Depois, surgiram os switches/bridges, que encaminham o tráfego para a porta certa (são "inteligentes").

Topologia Estrela
Topologia Estrela

Switch
Switch

Frames de rede

Na camada de Ligação de Dados (layer 2), os pacotes são chamados de Frames/Tramas e têm o seguinte formato:

Trama de Ethernet
Trama de Ethernet

Onde,

  • Preâmbulo - Usado para sincronizar as clock rates dos emissor e recetor;
  • Endereços - Endereços MAC do emissor e do recetor;
  • Tipo - Indica o protocolo da camada superior (Ex. IP);
  • Data - Dados a serem transmitidos;
  • CRC - Checks para correção de erros.

Algoritmos de comunicação

A Ethernet básica tem alguns problemas:

  • Connectionless - Não existe o conceito de conexão, como visto anteriormente com o paradigma Datagram;
  • Instável - A NIC de recebimento não envia ACKs ou NACKs para a NIC de envio, o que implica que um fluxo de datagramas transmitidos pela camada de rede possa ter lacunas (datagramas perdidos). Contudo, se a aplicação estiver a usar o TCP, as lacunas serão preenchidas.

Para colmatar isso, foi criado o seguinte algoritmo:

Algoritmo CSMA/CD - Carrier Sense Multiple Access (with Collision Detection)

  1. A NIC recebe o datagrama da camada de rede e cria uma trama;
  2. Se o canal estiver livre (esperam-se 96 tempos de bit), a NIC inicia a transmissão da trama;
    Se o canal estiver ocupado, aguarda até que o canal esteja livre e logo de seguida, transmite;
  3. Se a NIC transmitir a trama inteira sem detetar outra transmissão: sucesso;
  4. Se a NIC detetar outra transmissão enquanto estiver transmitindo, houve uma colisão:
    • aborta e envia um sinal de interferência, avisando todos que houve uma colisão;
  5. Depois de abortar, a NIC entra em retrocesso exponencial:
    • Depois da m-ésima colisão, a NIC escolhe um número KK aleatoriamente em {0,1,2,,2m1}\{0,1,2,…,2^m-1\};
    • A NIC aguarda K×512K \times 512 tempos de bit de transmissão; Depois, retorna ao Passo 2.

Este algoritmo procura, através de deteção de colisões, minimizar as colisões seguintes, pois todos os intervenientes são avisados que houve uma colisão e "ordenados" a parar, "reestabelecendo a ordem".
Contudo, quando existe muito tráfego, existem de qualquer forma muitas colisões.

Switches

Ao contrário dos hubs, apresentados anteriormente, os switches (comutadores, em português) são inteligentes - se um host A falar com um host B, o switch aprende a sua localização, ou seja, fica a saber que o host A está na sua porta X.

Desta forma, são permitidas várias ligações em simultâneo e as colisões mencionadas anteriormente são reduzidas.

Para isso, o switch tem uma Switching Table - Sempre que existir uma nova transmissão, o switch constrói uma switching table onde regista um mapeamento de quem transmitiu e de onde (de que interface) veio essa transmissão.
(Não confundir com uma forwarding table)

São guardadas entradas do tipo: (Endereço MAC, interface do _switch_, TTL), onde TTL representa o tempo até esta entrada deixar de ser válida.

Sempre que o switch quer enviar algo para um host, verifica primeiro se existe uma entrada válida na tabela com o endereço de destino:

  • Se estiver, envia para a interface associada.
  • Se não estiver, faz flooding - a mensagem é repetida em todas as interfaces (à exceção da que enviou a trama) - neste caso, funciona como um hub.

Interligar switches

É possível interligar switches, ou seja, a um switch estar ligado outro switch, que por sua vez está ligado a um terceiro switch, e assim por diante.
Por exemplo:

Switches interligados
Switches interligados

Ou seja, numa interface de um switch podem existir várias interfaces (correspondentes às interfaces dos switches "filho").

Considerado o flooding apresentado anteriormente, eis um exemplo de uma transmissão onde o switch ainda não tem nenhuma entrada na switching table:

Exemplo

Considere-se que o host C quer enviar um pacote para o host I. Primeiro, considera-se o envio de um pacote por parte do host C:

  1. C envia o pacote para S1;
  2. S1 aprende o MAC address de C.
  3. Como não sabe onde está endereço MAC de destino, faz flooding;
  4. S4 aprende que o MAC address de C está em S1.
  5. Como não sabe onde está o endereço MAC de destino, faz flooding;
  6. S2 e S3 aprendem que o MAC address de C está em S4.
  7. Como nenhum sabe onde está o endereço MAC de destino, ambos fazem flooding;
  8. O pacote eventualmente chega a I, por S3.

Nesta situação, todos recebem a mensagem, inclusive o destinatário.

Visualmente, C envia o pacote

Depois, contemplamos a resposta do host I:

  1. I envia o pacote para S3;
  2. S3 sabe em que porta está o endereço MAC - está em S4, então envia apenas para S4;
  3. S4 sabe em que porta está o endereço MAC - está em S1, então envia apenas para S1;
  4. S1 sabe em que porta está o endereço MAC - é o host C, então envia apenas para C;

Nesta situação, apenas o C recebeu a mensagem. Visualmente,

I envia o pacote

Falta de redundância

E se alguém cortar a ligação entre dois dos switches?
Todos os hosts ligados ao switch "filho" ficam desconectados. Para resolver isso, pode-se introduzir alguma redundância.

Considerando a interligação mostrada anteriormente, uma forma de a adicionar seria a seguinte:

Switches interligados com redundância
Switches interligados com redundância

Porém, adicionar redundância traz um problema grave - quando é feito flooding, é criado um loop na rede. Mais grave ainda, devido a não existir forma de identificar se uma trama é uma repetição ou uma trama nova, este loop fica na rede para sempre!

Por exemplo, considerando uma switching table vazia,

  • Se S4 fizer flooding, irá enviar uma trama para S1, S2 e S3;
  • Por conseguinte, S1, S2 e S3 irão fazer flooding para S2, S1 e S3, e S2, respetivamente;
  • Os switches que já receberam a trama não conseguiram distingui-la e portanto, voltam a fazer flooding, incluindo os switches que já o fizeram...

Para resolver isto, a redundância necessita de estar desligada logicamente, ou seja, a ligação física (o cabo), está ligada, mas o switch desativa a porta até esta ser necessária.

Para decidirem quais os melhores caminhos a usar e que interfaces desligar, os switches precisam de um algoritmo para os descobrir.
Como o esboço da rede final é, pensando em grafos, uma árvore (cada nó só está ligado uma vez), é lhe dado o nome de STP (Spanning Tree Protocol).

STP - Spanning Tree Protocol

Ideias Gerais

É necessário, então, identificar uma árvore na topologia - as interfaces que constituem essa árvore ficam ligadas enquanto que as restantes ficam desligadas (até ser necessário).

Para este algoritmo funcionar, são necessárias as seguintes ideias:

  • Bridge ID - Cada switch é identificado por um endereço constituído por 2 bytes que representam a prioridade e 6 bytes que são o endereço MAC do switch. Por exemplo, 8000.AA:BB:CC:DD:EE:FF é o ID do switch com endereço MAC AA:BB:CC:DD:EE:FF e com uma prioridade de 0x8000.
  • Root Bridge - Switch que é o nó inicial da árvore. É o switch com o menor Bridge ID (ou seja, a prioridade serve para "forçar" um switch a ser a root bridge e os seus sucessores).
  • Root Port - Porta que, num dado switch, é responsável pelo envio/receção de frames para/da root bridge - são o caminho em direção ao root bridge (daí Root Port, "porta para o root").
  • Designated Bridge - Switch que, num dado segmento de rede, é responsável por enviar/receber as tramas da rede para/da root bridge.
  • Designated Port - Porta da Designated Bridge por onde passa o tráfego para/da root bridge.

Vale notar que:

  • Root Port não está relacionado com a root bridge.
  • Para um dado segmento de rede, onde podem estar computadores, impressoras, etc., estes enviam tráfego para o switch, sendo essa porta a Designated Port. O switch por sua vez, envia o tráfego pela Root Port, que aponta na direção da root bridge. Ou seja, o tráfego "flui" de Designated Ports para Root Ports.
  • Cada rede terá uma root bridge, cada switch (exceto a root bridge, que não tem nenhuma) terá apenas uma Root Port, cada segmento de rede terá apenas uma Designated Port e as restantes portas ficarão inativas.
  • Cada switch tem um custo para chegar à root bridge, que é igual à soma dos custos de todas as portas que transmitem em direção à root bridge (Root Ports).
  • As restantes portas que não são usadas são as portas que são desativadas, ou seja, a árvore é definida pelas portas não bloqueadas.
BPDUs - Bridge Protocol Data Units

Para ser possível identificar todos os elementos mencionados anteriormente, os switches têm que, de alguma forma, comunicar entre si.
Para o fazerem, e para trocarem a informação necessária, os switches enviam BPDUs (Bridge Protocol Data Units), que contêm a seguinte informação:

(ID do Root Bridge, Custo até Root Bridge, ID de quem enviou a BPDU, ID da porta que originou a BPDU)

Vale notar que o Custo até Root Bridge é igual à soma dos custos de todas as arestas que levam à root bridge.

Estas BPDUs são enviadas, em norma, em intervalos de 2 segundos.

Quando um switch é ligado, o algoritmo STP é usado para identificar a root bridge, sendo enviadas BPDUs com o BridgeID do novo switch.
Este, até receber BPDUs, assume ser a root bridge. Porém, quando receber uma BPDU, este verá o BridgeID da root bridge:

  • Se esse BridgeID for menor que o dele, o switch aceita que esse BridgeID é a root bridge e deixa de assumir ser ele a root bridge;
  • Se esse BridgeID for maior que o dele, então ele continua a assumir ser a root bridge. Quando os outros switches receberem o seu BridgeID, estes verão que é menor que os deles, então atualizarão a sua root bridge.
Algoritmo

Devido à complexidade e nuances do algoritmo, este será explicado com um exemplo:

Exercício

Considere a seguinte figura, que contém uma rede composta por:

  • cinco switches: V, W, X, Y, Z;
  • um hub;
  • e quatro estações: A, B, C, D. Considera-se que o identificador (BridgeID) de cada switch é igual ao menor dos endereços MAC das suas interfaces, que estão indicados, de uma forma simplificada, junto a cada ligação.
    Por exemplo, o BridgeID do switch W será 10.
    Todas as ligações têm custo unitário e as tabelas estão inicialmente vazias.

Parte 1 do exercício

a) Usando o algoritmo STP, classifique as interfaces de cada um dos switches em raiz, designada, ou bloqueada, e indique as BPDUs enviadas por cada switch em cada uma das suas interfaces quando em regime estacionário.

Primeiro, calcula-se o BridgeID de cada switch, que corresponde ao mínimo dos MAC addresses das interfaces. Olhando para o mínimo BridgeID, determina-se que o switch V é a bridge root:

Parte 2 do exercício

Aproveita-se para determinar as BPDUs enviadas por cada switch.
As BPDUs são da forma

(ID do Root Bridge, Custo até Root Bridge, ID de quem enviou a BPDU, ID da porta que originou a BPDU)

Então, com o Root Bridge já definido, assumindo que uma BPDU é enviada pelo switch X pela porta com ID 22, esta terá os valores

(5, 2, 20, 22)

Depois, determinam-se as Root Ports - em todos os outros switches, vê-se a interface que leva ao caminho com menor custo para a raiz.
Como todas as ligações têm custo unitário, as interfaces dos switches vizinhos à bridge root são triviais (é apenas a interface que aponta para ela).
As interfaces em que não existe empate de custo também são triviais - a interface com MAC 20 do switch X é trivial pois é apenas através dela que o custo consegue ser mínimo (2):

Parte 3 do exercício

Quando existe um empate, no caso do Z, é necessário olhar para todas as BPDUs que podem ser recebidas no switch, escolhendo aquela quem tem as colunas menores. No caso do Z, este apenas está ligado a 4 switches, logo as BPDUs possíveis são:

(5, 2, 20, 22), sw X
(5, 1, 30, 31), sw Y
(5, 1, 10, 12), sw W
(5, 1, 10, 13), sw W

A primeira coluna é 5 para todos, logo não é possível excluir nenhum; A segunda coluna é 2 para um switch e 1 para todos, logo exclui-se a primeira BPDU, ficando-se com:

(-, -, 30, 31), sw Y
(-, -, 10, 12), sw W
(-, -, 10, 13), sw W

Da terceira coluna, só sobram as últimas duas BPDUs:

(-, -, -, 12), sw W
(-, -, -, 13), sw W

E finalmente, aquela com valor menor é a primeira BPDU (terceira da lista inicial).
Ou seja, a Root Port de Z será a interface 42, que leva à porta que emitiu essa BPDU:

Parte 4 do exercício

Agora, determinam-se as Designated Ports, ou seja, para cada segmento de rede (rodeados por uma nuvem), determina-se o melhor caminho para a raiz:

Parte 5 do exercício

Novamente, pelas mesmas razões anteriores, alguns casos são triviais (única interface livre no segmento de rede, interfaces da root bridge):

Parte 6 do exercício

Nos outros casos, deve-se novamente olhar para as BPDUs.
Olhando, por exemplo, para o segmento do canto inferior direito (entre os switches com ID 20 e 40), as BPDUs possíveis para esse segmento são:

20: (5, 2, 20, 22)
40: (5, 2, 40, 43)

Aplicando a mesma lógica de há pouco, considera-se então a designated port como a interface que vem do switch 20. Usando a mesma ideia para os outros segmentos ainda sem designated port, fica-se com:

Parte 7 do exercício

Todas as outras portas que não têm designação, ficarão sem uso e serão, então, bloqueadas. O resultado final é o seguinte:

Parte 8 do exercício

b) Para a sequência de envio de tramas: (A→B, C→D, C→A, B→A, D→C), indique as interfaces sobre as quais são transmitidas cópias das tramas respetivas e qual o estado das tabelas de expedição de cada switch no final das várias transmissões.

Tendo em conta o diagrama anterior, sabemos agora o mapa desta rede. Considera-se agora cada envio de tramas (cada entrada da tabela diz, para um dado switch, por qual interface é que foi transmitida a trama enviada):

  • A → B

Como as tabelas estão vazias, nenhum switch conhece o host A e, por conseguinte, irá haver um flood total da rede:

V (5) W (10) X (20) Y (30) Z (40)
A → B A, 5 A, 10 A, 20 A, 30 A, 42
  • C → D

Pela mesma razão, irá haver um flood total da rede:

V (5) W (10) X (20) Y (30) Z (40)
A → B A, 5 A, 10 A, 20 A, 30 A, 42
C → D C, 6 C, 12 C, 20 C, 30 C, 44
  • C → A

Neste caso, o host A já é conhecido em alguns switches, então, o pacote faz o percurso Z → W → V. Portanto, a tabela fica:

V (5) W (10) X (20) Y (30) Z (40)
A → B A, 5 A, 10 A, 20 A, 30 A, 42
C → D C, 6 C, 12 C, 20 C, 30 C, 44
C → A C, 6 C, 12 - - C, 44
  • B → A

Aqui, tanto o B como o A estão por trás do mesmo hub. O hub irá fazer broadcast do pacote e chegará tanto ao A como ao switch V. Como o switch V também recebeu o pacote, este irá o enviar de volta para o hub, que por sua vez fará broadcast para as outras interfaces (A incluído). Logo, a tabela fica assim:

V (5) W (10) X (20) Y (30) Z (40)
A → B A, 5 A, 10 A, 20 A, 30 A, 42
C → D C, 6 C, 12 C, 20 C, 30 C, 44
C → A C, 6 C, 12 - - C, 44
B → A B, 5 - - - -
  • D → C

O C já é conhecido, portanto pode fazer o caminho X -> W -> Z. Então a tabela fica,

V (5) W (10) X (20) Y (30) Z (40)
A → B A, 5 A, 10 A, 20 A, 30 A, 42
C → D C, 6 C, 12 C, 20 C, 30 C, 44
C → A C, 6 C, 12 - - C, 44
B → A B, 5 - - - -
D → C - D, 11 D, 21 - D, 42
Ciclos temporários e perda de conectividade

Quando existir uma mudança na topologia de rede (por ex., um switch é removido ou uma nova root bridge é introduzida), poderá:

  • existir uma perda temporária de conectividade, pois uma porta anteriormente bloqueada e que deve ser ativa pode ainda não ter passado a ativa;
  • existir ciclos temporários, pois uma porta anteriormente ativa e que deve ser bloqueada ainda não ter passado a bloqueada.

Para minimizar a probabilidade de ciclos temporários, os switches devem esperar algum tempo antes de trocarem uma porta de um estado bloqueado para um estado ativo.

VLANs - Virtual LANs

Existem switches que suportam o uso de VLANs (Virtual LANs), ou seja, permitem configurar redes virtuais para as suas portas.

Analogia

Considere-se que uma empresa tem dois departamentos: o departamento Financeiro e o departamento de Marketing.

Os departamentos estão em edifícios diferentes e têm redes diferentes (pois é mais seguro e existem serviços específicos a cada departamento a correr nas redes separadas).

Imagine-se agora que chegou um estagiário de finanças à empresa. O dep. Financeiro não tem mais lugares para o sentar, portanto é enviado para o dep. de Marketing.

Não sendo usadas VLANs, o estagiário nunca teria acesso à rede do seu departamento.

Para colmatar isso, podem-se criar duas redes virtuais (duas VLANs) que representam o dep. Financeiro e o dep. de Marketing, sendo-lhes atribuídas os IDs de VLANs 50 e 60, respetivamente.

Então,

  • em todas as portas dos switches do dep. Financeiro, é colocada a VLAN 50;
  • em todas as portas dos switches do dep. de Marketing, é colocada a VLAN 60, à exceção da porta onde o estagiário se vai ligar, sendo colocada a VLAN 50.

No router, as VLANs serão posteriormente configuradas.

Assim, apesar de estarem em redes físicas diferentes, virtualmente o estagiário está na rede do dep. Financeiro e por conseguinte tem acesso a tudo o que teria se lá estivesse presencialmente.

As VLANs têm algumas vantagens:

  • dividem a rede em partes, reduzindo o domínio de broadcast o que, consequentemente, aumenta a bandwidth pois as mensagens não são enviadas para portas desnecessárias;
  • adicionam segurança, pois hosts em diferentes VLANs não conseguem comunicar entre si diretamente;

Para as VLANs poderem comunicar entre si, existem mecanismos de routing (pelos routers).

Redes Wireless

Falemos agora de redes Wireless (sem fios). Estas redes usam antenas para efetuar a comunicação entre hosts.

  • Hosts Wireless - São tablets, telemóveis, computadores portáteis, etc. Estes dispositivos correm aplicações e podem estar fixos ou em movimento (e.g. telemóvel a andar num corredor).
  • Base Station - Uma estação que é responsável por emitir pacotes de forma sem fios para hosts, fazendo a ligação com o resto da rede. Pode estar ligada por cabo (e.g. Access Point) ou pode transmitir para o resto da rede de uma forma wireless também.

Num sistema móvel, devido a frequências muito baixas, não conseguimos detetar colisões e, portanto, não conseguimos usar os algoritmos CSMA/CD vistos anteriormente. Por isso, são usados outros algoritmos.

Handoff - Se um host estiver em movimento e passar de um AP para outro, a comunicação consegue continuar, fazendo com o que o 1º AP passe a conexão (faça handover) para o outro AP.

Apesar de ter várias vantagens, como:

  • Permitir comunicação em movimento;
  • Permitir comunicação em sítios que é complicado ter rede cablada;
  • Permitir fazer broadcasting;
  • Ser mais conveniente para os utilizadores;
  • Ter menos cabos e ser esteticamente mais bonito;
  • ...

Estes sistemas têm várias desvantagens que influenciam a qualidade do sinal, como:

  • Ambiente menos controlado, sendo mais subjetivo a interferências e ruído (frequências estandardizadas, usadas por outros hosts, bem como ruído de motores, microondas, ...);
  • Velocidades de transmissão menores;
  • Propagação em diferentes caminhos, chegando ao destino em timestamps diferentes.

Para além desses problemas, existe um mais grave: o problema do terminal escondido.
Considere a seguinte situação:

Problema do terminal escondido
Problema do terminal escondido

Neste caso, os dispositivos A e C desconhecem a existência um do outro, ou seja, os algoritmos de colisão de deteção apresentados não podem ser aplicados, pois estes dois dispositivos não se conseguem "ouvir" um ao outro para saberem que estão a emitir ao mesmo tempo.

Existem dois algoritmos que ajudam a resolver estes problemas:

CSMA/CA - Carrier sense multiple access (with collision avoidance)

Este algoritmo é bastante similar ao básico CSMA. O que difere dele é que, para além de esperar que o canal fique livre, ainda espera um tempo aleatório depois do canal se libertar, e esse tempo só é descontado quando o canal está livre.
Assim, o "sortudo" que teve o tempo menor começa a transmitir e os outros voltam a ficar à espera que o canal fique livre.

Depois de uma transmissão, o AP devolve um ACK para confirmar o sucesso da transmissão. Isto ajuda a resolver o problema do terminal escondido - porém não o resolve na totalidade pois podem haver tempos em que o início das transmissões coincide.

Para resolver isto, surgiu a variante com RTS-CTS.

CSMA/CA com RTS-CTS (Request-To-Send e Clear-To-Send)

Esta variante consiste numa reserva do canal - o emissor, em vez de começar a sua transmissão imediatamente, envia antes um pedido de reserva do canal.
Desta forma, o AP reserva-lhe o canal e dá-lhe um OK, fazendo broadcast de um CTS com a informação de quem vai emitir.
Assim, um outro host que não ouça o emissor, ouvirá certamente o AP e não irá transmitir.

Se tiver existido uma colisão nesse pedido, esta terá um impacto muito reduzido, pois foi apenas transmitido um pacote.

Exemplos dos algoritmos

De forma a explicar os algoritmos, seguem os seguintes exercícios:

Exercício

O diagrama da figura mostra uma rede Wi-Fi em que X é o ponto de acesso e A, B e C são estações a ele associadas. Os círculos grandes centrados em cada uma das estações representam a sua área de cobertura, isto é, o alcance do seu sinal eletromagnético. A área de cobertura do ponto de acesso X não está representada, mas subentende-se que cobre as três estações. O protocolo de acesso ao meio é CSMA/CA. Suponha que X está a transmitir uma trama no instante 0 μs que acabará de ser transmitida no instante 100 μs. Suponha ainda o seguinte:

Estação Instante em que tem trama para transmitir (μs) Duração de transmissão da trama (μs) Tempo de Backoff (μs)
A 50 100 70
B 70 200 200
C 90 150 150

Parte 1 do exercício

a) Para cada estação, em que instante de tempo é que cada começa a transmitir a sua trama pela primeira vez? Considere que é usado o protocolo CSMA/CA (sem RTS-CTS).

Podemos representar a situação num diagrama espacial e temporal - a dimensão espacial na horizontal (as estações e o AP) e a dimensão temporal na vertical:

Parte 2 do exercício

X transmite durante 100μs. Enquanto isso, as estações estavam prontas a enviar mas, por haver uma transmissão no ar, entraram no período de Backoff:

Parte 3 do exercício

Quando X acabou a transmissão, o tempo de backoff de cada estação começou a contar.
Como a estação A tem o tempo de backoff mais pequeno, é a primeira a transmitir depois dele acabar:

Parte 4 do exercício

A estação C ouviu o A a transmitir e por isso ficou em standby (fez pausa no seu contador, até o A deixar de transmitir).
Depois do A acabar, o AP envia-lhe um ACK e o C continua a contagem e quando chega ao fim, inicia a sua transmissão:

Parte 5 do exercício

Contudo, do ponto de vista do B, ele não conhece nem ouve os outros e, por isso, conta o seu backoff sem interrupções:

Parte 6 do exercício

Isto causou uma colisão e fez com que ambos B e C não recebessem um ACK por parte do AP.

b) Considere agora que é usado CSMA/CA com RTS-CTS. O que muda?

O início será igual, porém antes de A começar a transmitir, este fará um pedido de reserva de canal (RTS) e o AP responderá que pode transmitir (CTS):

Parte 7 do exercício

Desta forma, as estações C e B foram informadas que uma transmissão iria começar nos instantes seguintes e, portanto, agora o tempo de backoff da estação B também fica em standby.
À semelhança do anterior, o C começa a transmitir quando a sua contagem chega ao fim:

Parte 8 do exercício

Finalmente, como B voltou a pausar o tempo de backoff (porque foi informado que uma transmissão iria ocorrer), B consegue agora transmitir depois do tempo do seu backoff chegar a 0:

Parte 9 do exercício