You are on page 1of 22

PROGRAMAÇÃO CONCORRENTE

A programação concorrente foi usada inicialmente na construção de sistemas operacionais.


Atualmente, ela é usada para desenvolver aplicações em todas as áreas da computação. Este tipo
de programação tornou-se ainda mais importante com o advento dos sistemas distribuídos e das
máquinas com arquitetura paralela. Neste capítulo serão apresentados os conceitos básicos e os
mecanismos clássicos da programação concorrente. Maiores detalhes podem ser encontrados no
livro [TOS03].

1 Definição

A grande maioria dos programas escritos são programas seqüenciais. Nesse caso, existe
somente um fluxo de controle (fluxo de execução, linha de execução, thread) no programa. Isso
permite, por exemplo, que o programador realize uma "execução imaginária" de seu programa
apontando com o dedo, a cada instante, o comando que está sendo executada no momento.
Um programa concorrente pode ser visto como se tivesse vários fluxos de execução.
Para o programador realizar agora uma "execução imaginária", ele vai necessitar de vários dedos,
um para cada fluxo de controle.
O termo "programação concorrente" vem do inglês concurrent programming, onde
concurrent significa "acontecendo ao mesmo tempo". Uma tradução mais adequada seria
programação concomitante. Entretanto, o termo programação concorrente já está solidamente
estabelecido no Brasil. Algumas vezes é usado o termo programação paralela com o mesmo
sentido.
É comum em sistemas multiusuário que um mesmo programa seja executado
simultaneamente por vários usuários. Por exemplo, um editor de texto. Entretanto, ter 10
execuções simultâneas do editor de texto não faz dele um programa concorrente. O que se tem
são 10 processos independentes executando o mesmo programa seqüencial (compartilhando o
mesmo código). Cada processo tem a sua área de dados e ignora a existência das outras
execuções do programa. Esses processos não interagem entre si (não trocam informações). Um
programa é considerado concorrente quando ele (o próprio programa, durante a sua execução)
origina diferentes processos. Esses processos, em geral, irão interagir entre si.

2 Motivação

A programação concorrente é mais complexa que a programação seqüencial. Um programa


concorrente pode apresentar todos os tipos de erros que aparecem nos programas seqüenciais e,
adicionalmente, os erros associados com as interações entre os processos. Muitos erros dependem
do exato instante de tempo em que o escalonador do sistema operacional realiza um chaveamento
de contexto. Isso torna muitos erros difíceis de reproduzir e de identificar.
Apesar da maior complexidade, existem muitas áreas nas quais a programação
concorrente é vantajosa. Em sistemas nos quais existem vários processadores (máquinas paralelas
ou sistemas distribuídos), é possível aproveitar esse paralelismo e acelerar a execução do

PROGRAMAÇÃO CONCORRENTE – Prof. Simão Toscani 1


(Do livro Sistemas Operacionais e Programação Concorrente, Toscani S.S., Oliveira R.S. e Carissimi A.S.
Editora Sagra-Luzzatto, 2003)
programa. Mesmo em sistemas com um único processador, existem razões para o seu uso em
vários tipos de aplicações.
Considere um programa que deve ler registros de um arquivo, colocar em um formato
apropriado e então enviar para uma impressora física (em oposição a uma impressora lógica ou
virtual, implementada com arquivos). Podemos fazer isso com um programa seqüencial que,
dentro de um laço, faz as três operações (ler, formatar e imprimir registro).

Arquivo Processo Impressora


física

Figura 1 - Programa seqüencial acessando arquivo e impressora.

Inicialmente o processo envia um comando para a leitura do arquivo e fica bloqueado. O


disco então é acionado para realizar a operação de leitura. Uma vez concluída a leitura, o
processo realiza a formatação e inicia a transferência dos dados para a impressora. Como trata-se
de uma impressora física, o processo executa um laço no qual os dados são enviados para a porta
serial ou paralela apropriada. Como o buffer da impressora é relativamente pequeno, o processo
fica preso até o final da impressão. O disco e a impressora nunca trabalham simultaneamente,
embora isso seja possível. É o programa seqüencial que não consegue ocupar ambos.
Vamos agora considerar um programa concorrente como o mostrado na figura 2 para
realizar a impressão do arquivo. Dois processos dividem o trabalho. O processo leitor é
responsável por ler registros do arquivo, formatar e colocar em um buffer na memória. O
processo impressor retira os dados do buffer e envia para a impressora. É suposto aqui que os
dois processos possuem acesso à memória onde está o buffer. Este programa é mais eficiente,
pois consegue manter o disco e a impressora trabalhando simultaneamente. O tempo total para
realizar a impressão do arquivo vai ser menor.

Arquivo Processo
Leitor

Buffer

Processo Impressora
Impressor física

Figura 2 - Programa concorrente acessando arquivo e impressora.

O uso da programação concorrente é natural nas aplicações que apresentam paralelismo


intrínseco, ditas aplicações inerentemente paralelas. Nessas aplicações pode-se distinguir

PROGRAMAÇÃO CONCORRENTE – Prof. Simão Toscani 2


(Do livro Sistemas Operacionais e Programação Concorrente, Toscani S.S., Oliveira R.S. e Carissimi A.S.
Editora Sagra-Luzzatto, 2003)
facilmente funções para serem realizadas em paralelo. Este é o caso do spooling de impressão,
exemplo que será apresentado a seguir. Pode-se dizer que, em geral, a programação concorrente
tem aplicação natural na construção de sistemas que tenham de implementar serviços que são
requisitados de forma imprevisível [DIJ65]. Nesse caso, o programa concorrente terá um
processo para realizar cada tipo de serviço.
A seguir é considerado um servidor de impressão para uma rede local. A figura 3 ilustra
uma rede local na qual existem diversos computadores pessoais (PC) utilizados pelos usuários e
existe um computador dedicado ao papel de servidor de impressão. O servidor usa um disco
magnético para manter os arquivos que estão na fila de impressão.

PC PC PC

Usuários Servidor de Impressão

Figura 3 - Rede local incluindo um servidor de impressão dedicado.

É importante observar que o programa "servidor de impressão" possui paralelismo


intrínseco. Ele deve: (1) receber mensagens pela rede; (2) escrever em disco os pedaços de
arquivos recebidos; (3) enviar mensagens pela rede (contendo, por exemplo, respostas às
consultas sobre o seu estado); (4) ler arquivos previamente recebidos (para imprimí-los); (5)
enviar dados para a impressora. Todas essas atividades podem ser realizadas "simultaneamente".
Uma forma de programar o servidor de impressão é usar vários processos, cada um responsável
por uma atividade em particular. Obviamente, esses processos vão precisar trocar informações
para realizar o seu trabalho.
A figura 4 mostra uma das possíveis soluções para a organização interna do programa
concorrente "servidor de impressão". Cada círculo representa um processo. Cada flecha
representa a passagem de dados de um processo para o outro. Essa passagem de dados pode ser
feita, por exemplo, através de variáveis que são compartilhadas pelos processos envolvidos na
comunicação.
Vamos agora descrever a função de cada processo. O processo "Receptor" é responsável
por receber mensagens da rede local. Ele faz isso através de chamadas de sistema apropriadas e
descarta as mensagens com erro. As mensagens corretas são então passadas para o processo
"Protocolo". Ele analisa o conteúdo das mensagens recebidas à luz do protocolo de comunicação
suportado pelo servidor de impressão. É possível que seja necessário a geração e o envio de
mensagens de resposta. O processo "Protocolo" gera as mensagens a serem enviadas e passa-as
para o processo "Transmissor", que as envia através de chamadas de sistema apropriadas.
Algumas mensagens contêm pedaços de arquivos a serem impressos. É suposto aqui que
o tamanho das mensagens tenha um limite (alguns Kbytes). Dessa forma, um arquivo deve ser
dividido em várias mensagens para transmissão através da rede. Quando o processo "Protocolo"
identifica uma mensagem que contém um pedaço de arquivo, ele passa esse pedaço de arquivo
para o processo "Escritor". Passa também a identificação do arquivo ao qual o pedaço em questão
pertence. Cabe ao processo "Escritor" usar as chamadas de sistema apropriadas para escrever no
PROGRAMAÇÃO CONCORRENTE – Prof. Simão Toscani 3
(Do livro Sistemas Operacionais e Programação Concorrente, Toscani S.S., Oliveira R.S. e Carissimi A.S.
Editora Sagra-Luzzatto, 2003)
disco. Quando o pedaço de arquivo em questão é o último de seu arquivo, o processo "Escritor"
passa para o processo "Leitor" o nome do arquivo, que está pronto para ser impresso.

Receptor Transmissor

Protocolo

Escritor

Leitor Impressor

Figura 4 - Servidor de impressão como programa concorrente.

O processo "Leitor" executa um laço no qual ele pega um nome de arquivo, envia o
conteúdo do arquivo para o processo "Impressor" e então remove o arquivo lido. O envio do
conteúdo para o processo "Impressor" é feito através de um laço interno composto pela leitura de
uma parte do arquivo e pelo envio dessa parte. Finalmente, o processo "Impressor" é encarregado
de enviar os pedaços de arquivo que ele recebe para a impressora. O relacionamento entre os
processos "Leitor" e "Escritor" foi descrito antes, no início desta seção.
O servidor de impressão ilustra o emprego da programação concorrente na construção de
uma aplicação com paralelismo intrínseco. O resultado é uma organização interna clara e simples
para o programa. Um programa seqüencial equivalente seria certamente menos eficiente. O
restante deste capítulo é dedicado aos problemas e às técnicas existentes para a construção de
programas concorrentes como esse.
Hoje em dia existem várias linguagens que permitem construir programas concorrentes
(Java, Ada, Pascal Concorrente, C estendido com bibliotecas para concorrência, etc.). Aqui será
utilizada uma linguagem apropriada para ensino, denominada Vale4 (V4) [TOS04].

3 Especificação do paralelismo

Para construir um programa concorrente, antes de mais nada, é necessário ter a capacidade de
especificar o paralelismo dentro do programa. Essa especificação pode ser feita de diversas
maneiras. Uma delas utiliza os comandos fork, quit e join [CON63]. Outras maneiras serão
apresentadas na seção 4.

PROGRAMAÇÃO CONCORRENTE – Prof. Simão Toscani 4


(Do livro Sistemas Operacionais e Programação Concorrente, Toscani S.S., Oliveira R.S. e Carissimi A.S.
Editora Sagra-Luzzatto, 2003)
O comando (ou função) fork pode ser implementado de duas maneiras distintas: ele pode
criar um novo processo ou criar apenas um novo fluxo de execução dentro de um processo já
existente. A função fork retorna um número inteiro que é a identificação do novo processo ou do
novo fluxo criado. Um fluxo de execução também é denominado linha de execução ou thread.
Os comandos quit e join são auxiliares ao fork. Quando o comando quit é executado, o
processo (ou thread) que o executa termina imediatamente. O comando join(id) bloqueia quem o
executa até que termine o processo (ou thread) identificado por id.

Primitiva fork no sistema Unix

No sistema operacional Unix a operação fork cria um novo processo que é uma cópia idêntica
(clone) do processo que executa esta operação. Por exemplo, o comando

id = fork()

cria um filho idêntico ao processo que executou a operação (isto é, cria uma cópia do processo
original). O processo filho recebe cópias das variáveis do processo pai, bem como dos descritores
de arquivos. Os valores iniciais das variáveis do filho são iguais aos valores das variáveis
correspondentes do pai no momento da execução da função fork. Observe que não há
compartilhamento de variáveis: as variáveis do pai ficam no espaço de endereçamento1 do pai e
as variáveis do filho, no espaço de endereçamento do filho. Em relação aos valores dessas
variáveis, a única diferença inicial entre o pai e o filho é o valor da variável id, que é 0 para o
filho e é o valor de retorno da função fork para o pai. O valor de retorno é o número de
identificação do processo criado (process identification ou pid). Isto permite que os processos
prossigam de acordo com suas identidades. Normalmente, o comando seguinte ao fork tem a
seguinte forma:

if id = 0
then { processamento do filho }
else { processamento do pai }

Um dos processos, por exemplo o filho, pode “sobrepor” um novo código sobre si,
através da operação exec(P), onde P é um novo programa para ser executado (novo segmento de
código e de dados para o processo).

Fork, join e quit na linguagem Vale4

Na linguagem Vale4, o funcionamento do comando fork é similar ao do Unix, porém com uma
grande diferença: o fork cria uma thread e não um processo. As threads mãe e filha são idênticas:
executam o mesmo código e compartilham todas as variáveis do processo em que são definidas
(é justamente nesse compartilhamento que está a diferença para o Unix).
Na linguagem V4, a execução do comando

id := fork()

1
Basicamente, o espaço de endereçamento de um processo é formado por um segmento de código e um segmento
de dados. O primeiro contém as instruções do processo e o segundo contém as variáveis e constantes do processo.
Além disso, todo processo possui uma pilha que é usada para chamadas e retornos de procedimentos.
PROGRAMAÇÃO CONCORRENTE – Prof. Simão Toscani 5
(Do livro Sistemas Operacionais e Programação Concorrente, Toscani S.S., Oliveira R.S. e Carissimi A.S.
Editora Sagra-Luzzatto, 2003)
faz com que a variável global2 id receba o valor retornado pela função fork, que é o número
único da thread criada. A thread original (mãe) e a thread criada (filha) executam em paralelo a
partir do comando que segue ao fork. As duas threads irão se distinguir através da variável
denominada myNumber3. O valor dessa variável é sempre a identificação de quem a refere (isto é,
o número único de quem a refere). Tipicamente, o comando que segue ao fork tem a seguinte
forma:

if id = myNumber
then { processamento da filha }
else { processamento da mãe }

Observe que apenas para a thread filha o myNumber é igual ao valor da variável global
id.
Para criar processos (não threads) dinamicamente, a linguagem V4 oferece o comando
new que será apresentado na seção que segue. Enquanto o comando fork cria uma nova thread, o
comando new cria um novo processo.
O comando join(id) permite que um processo (ou thread) P espere pelo término do
descendente imediato (filho ou filha) identificado por id. Se o argumento id não identifica um
processo ou thread, ou se id não corresponde a um descendente imediato de P, então um erro é
reportado (erro de execução).
O argumento de join pode ser também a palavra reservada any, que significa o desejo de
esperar pelo término de qualquer um dos descendentes imediatos. Nesse caso, no retorno da
primitiva, a variável any4 vai conter a identidade do filho ou filha cuja execução terminou.
Outra peculiaridade da primitiva join(id) é que ela pode ser usada como função ou como
subrotina. Usada como função, ela retorna o valor que o filho (ou filha) id especificou no
comando quit, ao morrer, conforme é explicado a seguir.
O último comando do conjunto é o quit, que mata o seu executor. Podem ser usadas as
formas quit ou quit(X). No segundo caso, o argumento X é um valor inteiro que o processo ou
thread informa ao seu genitor, ao morrer. Se desejar pegar esse valor, o genitor usará a primitiva
join, como função.5 A propósito, um quit sem argumento equivale a um quit(0).

Diferença entre thread e processo

O que melhor distingue uma thread de um processo é o espaço de endereçamento. Todas as


threads de um processo trabalham no mesmo espaço de endereçamento, que é a memória lógica
do “processo hospedeiro”. Isto é, quando se tem um conjunto de threads dentro de um processo,
todas as threads executam o código do processo e compartilham as suas variáveis. Por outro
lado, quando se tem um conjunto de processos, cada processo trabalha num espaço de
endereçamento próprio, com um conjunto separado de variáveis.

2
Variável declarada no processo hospedeiro, compartilhada entre mãe e filha.
3
Tudo se passa como se cada processo ou thread tivesse uma variável local, denominada myNumber, contendo o
número único desse processo ou thread. Na verdade, myNumber, que também pode ser referido como myself ou
myID, é uma função primitiva que consulta o registro descritor do processo ou thread para obter o número de sua
“carteira de identidade” e retorna esse número.
4
Semelhantemente ao que ocorre com myNumber, tudo se passa como se cada processo ou thread tivesse uma
variável local, denominada any.
5
No caso de ser usada como subrotina, a primitiva join(id) desconsidera o valor informado pelo descendente id.
PROGRAMAÇÃO CONCORRENTE – Prof. Simão Toscani 6
(Do livro Sistemas Operacionais e Programação Concorrente, Toscani S.S., Oliveira R.S. e Carissimi A.S.
Editora Sagra-Luzzatto, 2003)
No caso de um processo com N threads, tem-se um único registro descritor (o registro do
processo hospedeiro) e N mini-descritores de threads. O mini-descritor de cada thread é usado
para salvar os valores dos registradores da UCP (PC, PSW, etc.). Adicionalmente, cada thread
possui uma pilha, que é usada para as chamadas e retornos de procedimentos.
É mais fácil chavear a execução entre threads (de um mesmo processo) do que entre
processos, pois tem-se menos informações para salvar e restaurar. Por esse motivo, as threads são
chamadas também de "processos leves".

Um exemplo

Vamos usar a linguagem V4 para exemplificar o uso dos comandos fork, join e quit. O programa
mostrado na figura 5 possui um único processo. A linha de execução inicial desse processo
executa duas vezes o comando fork, criando duas threads adicionais (filhas 1 e 2). A thread
original então espera que cada uma das filhas termine, escreve uma mensagem para cada uma e
termina também. As duas threads criadas apenas colocam uma mensagem na tela e terminam.

V4program
process p1;
f1: integer; /* identifica filha 1*/
f2: integer; /* identifica filha 2*/

{ write('Alo da mae'); nl;

f1:= fork(); /* Cria filha 1 */

if f1 = myNumber then { write('Alo da filha 1'); nl; quit};

f2:= fork(); /* Cria filha 2 */

if f2 = myNumber then { write('Alo da filha 2'); nl; quit};

join(f1);
write('Filha 1 morreu'); nl;

join(f2);
write('Filha 2 morreu'); nl
}
end program

Figura 5 - Uso de comandos fork, join e quit.

O comando write(X) escreve na tela do terminal do usuário. O argumento X pode ser uma
constante, uma variável, um elemento de array ou um string entre apóstrofes. O comando nl
(“new line”) faz com que a próxima impressão seja feita em uma nova linha. Duas possíveis
saídas para o programa anterior seriam:

Alo da mae Alo da mae


Alo do filha 1 Alo do filha 1
Alo do filha 2 Filha 1 morreu
Filha 1 morreu Alo do filha 2
Filha 2 morreu Filha 2 morreu

PROGRAMAÇÃO CONCORRENTE – Prof. Simão Toscani 7


(Do livro Sistemas Operacionais e Programação Concorrente, Toscani S.S., Oliveira R.S. e Carissimi A.S.
Editora Sagra-Luzzatto, 2003)
4 Criação estática e criação dinâmica de processos

Os processos de um programa concorrente podem ser criados de forma estática ou dinâmica. No


primeiro caso, o programa contém a declaração de um conjunto fixo de processos, os quais são
ativados simultaneamente, no inicio da execução do programa. No segundo caso, os processos
são criados dinamicamente, durante a execução, através de instruções especiais para esse fim.
Os mecanismos vistos até aqui (fork, join e quit) realizam criação dinâmica (e término
dinâmico), pois os processos (ou threads) são criados somente quando instruções especiais são
executadas.6

Criação estática

No caso da criação estática, os processos são declarados explícitamente7 no programa fonte e


vão existir desde o início da execução do programa concorrente. Normalmente, as linguagens de
programação permitem especificar esses processos de duas maneiras: como processos individuais
ou como um array de processos.

Especificação de processos individuais:


Neste caso, cada processo é especificado de forma individual, conforme exemplificado a seguir.

V4program
process P1;
k: integer init 0;
while k < 10 do
{ write(1);
k:=k+1
};
process P2;
k: integer init 0;
while k < 10 do
{ write(2);
k:=k+1
}
endprogram

O programa define 2 processos, denominados P1 e P2, que não compartilham variáveis


(não existem variáveis globais no programa). Cada processo utiliza uma variável local,
denominada k. O primeiro imprime 10 vezes o número 1 e o segundo, em paralelo, imprime 10
vezes o número 2. O resultado da execução pode ser qualquer seqüência de tamanho 20,
contendo 10 vezes o número 1 e 10 vezes o número 2, embaralhados. Teoricamente, são
possíveis 20!/(10!*10!) resultados diferentes.8

6
Por exemplo, se a execução não “passa” por uma determinada instrução fork, então a thread correspondente não é
criada.
7
A declaração explícita consiste em definir, para cada processo do programa, as suas variáveis locais e o seu
segmento de código.
8
Combinações de uma seqüência de 20 escaninhos, escolhidos 10 a 10.
PROGRAMAÇÃO CONCORRENTE – Prof. Simão Toscani 8
(Do livro Sistemas Operacionais e Programação Concorrente, Toscani S.S., Oliveira R.S. e Carissimi A.S.
Editora Sagra-Luzzatto, 2003)
Array de processos
Neste caso, uma única declaração especifica um grupo de processos semelhantes, que se
distinguem apenas pelo valor de uma variável local inteira, que é especificada no cabeçalho do
processo, conforme é ilustrado a seguir, considerando o mesmo exemplo anterior.

V4program
process P (i := 1 to 2);
k: integer init 0;
while k < 10 do
{ write(i);
k:=k+1
}
endprogram

Para o primeiro processo, a sua variável local i vale 1 e para o segundo, a sua variável
local i vale 2. Este programa é equivalente ao anterior.

Criação dinâmica

É possível declarar explicitamente um modelo (uma "forma") para criar processos durante a
execução, conforme é ilustrado a seguir. Neste caso tem-se o que se denomina criação dinâmica
com declaração explícita de processos.

V4program
process type P (i: integer);
k: integer init 0;
while k < 10 do
{ write(i);
k:=k+1
};
process Q;
{ new P(1); new P(2) }
endprogram

Através da especificação process type, explicita-se um modelo (template) de processo, o


qual é utilizado para criar exemplares (cópias, clones) desse processo durante a execução. A
criação de um novo exemplar se dá através do comando new, o qual permite passar parâmetros
para o processo criado. No caso da linguagem Vale4, a primitiva new pode ser usada como
função ou como subrotina; usada como função ela retorna a identificação interna (pid) do
processo criado.

5 Exemplos de programas concorrentes

Esta seção apresenta programas simples que ilustram características importantes dos programas
concorrentes. Tratam-se de programas Vale4 completos, prontos para serem compilados e

PROGRAMAÇÃO CONCORRENTE – Prof. Simão Toscani 9


(Do livro Sistemas Operacionais e Programação Concorrente, Toscani S.S., Oliveira R.S. e Carissimi A.S.
Editora Sagra-Luzzatto, 2003)
executados no ambiente V4. Para melhorar a legibilidade dos programas, é usada a seguinte
notação: os identificadores declarados (variáveis, procedimentos, etc.) são apresentados em
itálico.

Compartilhamento de um procedimento

O mesmo programa que foi utilizado na seção 3.5 para distinguir as diferentes maneiras de
especificar (e criar) processos é reescrito para ilustrar o compartilhamento de um procedimento.

V4program
procedure imprime(i: integer);
k: integer init 0;
while k < 10 do
{ write(i);
k:=k+1
};
process P1; imprime(1);
process P2; imprime(2)
endprogram

Cada processo chama imprime fornecendo como argumento o número a ser impresso.
Como nos exemplos anteriores, o resultado da execução desse programa é imprevisível, sendo
10
possíveis (teoricamente) C 20 resultados distintos.

Observação sobre as variáveis de um procedimento


No exemplo anterior, existem duas execuções concorrentes do procedimento imprime, uma
efetuada por P1 e outra por P2. Cada uma dessas execuções utiliza variáveis i (argumento) e k
(variável local do procedimento). A observação importante é que cada processo utiliza cópias
independentes dessas variáveis. O código do procedimento é compartilhado pelos dois processos,
mas os dados (variáveis i e k) são privativos de cada processo. Isto é, cada processo trabalha
sobre um conjunto de dados separado.
Não se pode esquecer que, na chamada de um procedimento, os argumentos e as variáveis
locais desse procedimento são alocados na pilha do processo chamador. Como cada processo (ou
thread) trabalha com uma pilha própria, as execuções não interferem uma com a outra. Na
programação concorrente é sempre assim, todo procedimento é automaticamente reentrável (ou
puro). Isto significa que o mesmo código pode ser executado simultaneamente por vários
processos sem que haja interferência entre eles, pois cada processo utiliza um conjunto separado
de parâmetros e de variáveis locais.

Compartilhamento de uma variável


O programa a seguir implementa um sistema concorrente onde dois processos compartilham uma
variável global S. Cada processo incrementa S de uma unidade, 100 vezes.

V4program
S : integer init 0;
process p1;
PROGRAMAÇÃO CONCORRENTE – Prof. Simão Toscani 10
(Do livro Sistemas Operacionais e Programação Concorrente, Toscani S.S., Oliveira R.S. e Carissimi A.S.
Editora Sagra-Luzzatto, 2003)
k: integer init 0;
{ loop
S:= S+1;
k:= k+1;
exit when k = 100
endloop;
nl; write('p1'); tab(2); write(S)
};
process p2;
k: integer init 0;
{ loop
S:= S+1;
k:= k+1;
exit when k = 100
endloop;
nl; write('p2'); tab(2); write(S)
}
endprogram

Este programa utiliza os comandos loop e tab(K), os quais são explicados a seguir.
O comando loop
O comando loop implementa um “ciclo infinito”. No seu interior, o comando “exit when
<cond>” significa que o ciclo acaba (isto é, que a execução vai para o comando seguinte ao
endloop) quando a condição <cond> é verdadeira. Este comando pode substituir todos os demais
comandos iterativos (while, repeat, for, etc.), com a vantagem de, em geral, tornar os programas
mais claros.
O comando tab(K)
Este comando escreve K espaços em branco no terminal do usuário, sendo útil para formatar a
impressão de resultados.
Observação sobre a inicialização de variáveis
Em V4, as variáveis não explicitamente inicializadas possuem valor inicial igual a 0, se inteiras,
e igual a false, se booleanas. Quando usada, a cláusula initial (ou init) deve ser seguida de um
único valor inicial. Se o uso é na declaração de uma lista de identificadores, então todos os
identificadores da lista recebem esse único valor inicial. Se o uso é na declaração de um array,
todos os elementos do array recebem esse único valor especificado.

O problema da exclusão mútua


No programa anterior, tem-se 2 processos manipulando a variável global S. Cada processo
executa 100 vezes o comando S:=S+1. Este comando é compilado para a seguinte seqüência de
código de máquina:
push S % coloca o valor de S na pilha
push $1 % coloca a constante 1 na pilha
add % soma os dois últimos valores colocados na pilha
PROGRAMAÇÃO CONCORRENTE – Prof. Simão Toscani 11
(Do livro Sistemas Operacionais e Programação Concorrente, Toscani S.S., Oliveira R.S. e Carissimi A.S.
Editora Sagra-Luzzatto, 2003)
pop S % guarda o resultado em S

Como os pontos em que a UCP passa de um processo para outro são imprevisíveis, pode
acontecer de um processo perder a UCP no meio da seqüência acima. 9 Vamos supor que o valor
de S carregado na pilha seja 10 e que o processo perca a UCP. Nesse caso, quando este processo
receber a UCP de volta, ele vai concluir a seqüência acima e armazenar o valor 11 em S. Todos
os acréscimos a S feitos pelo outro processo nesse ínterim são perdidos. Como conseqüência,
embora S inicie com o valor zero e cada processo some 1 a S cem vezes, o valor final de S
dificilmente será igual a 200. Para o resultado ser 200, deve haver exclusão mútua no acesso à
variável S, isto é, enquanto um processo estiver manipulando S, o outro não pode acessar S.
A exclusão mútua é um requisito muito importante nos sistemas concorrentes. Em geral,
é necessário garantir o acesso exclusivo aos dados compartilhados. A exclusão mútua só não
é necessária quando os dados são compartilhados na modalidade "apenas leitura", isto é, quando
os dados não são alterados pelos processos. Os trechos dos processos onde os dados
compartilhados são manipulados, são denominados trechos críticos ou regiões críticas.

Criação dinâmica de processos


A criação dinâmica (e recursiva) de processos é ilustrada através do problema da torre de Hanói,
descrito a seguir. Tem-se 3 torres (pilhas) e n discos de tamanhos diferentes. Inicialmente os n
discos estão empilhados na torre 1, na ordem certa (maior na base, menor no topo). O problema
consiste em movimentar todos os discos para uma determinada torre, sem que nunca um disco
maior fique sobre um disco menor. Os discos devem ser transportados de um em um e a terceira
torre pode ser usada como intermediária nessas movimentações.
O programa inicia com o processo P criando um filho (escravo) Hanoi para movimentar
3 discos da torre 1 para a torre 2, usando a torre 3 como intermediária. Para movimentar n discos
de a para b, usando c como torre intermediária, um escravo Hanoi faz o seguinte. Se n = 1 (só
tem um disco para movimentar), então o trabalho é fácil e direto: o escravo movimenta o único
disco de a para b (e mostra essa movimentação). Caso contrário, o escravo cria um escravo_1
para movimentar n-1 discos de a para c, usando b como torre intermediária. Quando esse serviço
é concluído (escravo_1 termina o seu trabalho), o escravo original movimenta o disco que lhe
sobrou (que é o maior) de a para b (mostra essa movimentação) e cria um escravo_2 para
concluir o serviço, que é movimentar n-1 discos de c para b usando a como torre intermediária.

V4program
process type Hanoi(n, a, b, c: integer);
id, m: integer;
if n = 1
then { nl; write(a); write(' --> '); write(b) }
else { m:= n-1;
id:= new Hanoi(m, a, c, b); join(id);
nl; write(a); write(' --> '); write(b);
id:= new Hanoi(m, c, b, a); join(id)
};
9
Sempre que um processo perde a UCP, o seu estado é salvo. Mais tarde, a execução do processo continua, como
se nada tivesse acontecido.
PROGRAMAÇÃO CONCORRENTE – Prof. Simão Toscani 12
(Do livro Sistemas Operacionais e Programação Concorrente, Toscani S.S., Oliveira R.S. e Carissimi A.S.
Editora Sagra-Luzzatto, 2003)
process P; new Hanoi(3, 1, 2, 3)
endprogram

O resultado da execução deste programa será a ordem em que os discos deverão ser
movimentados (movimento por movimento, um disco por vez).

6 Sincronizações básicas

É comum um processo ter que esperar até que uma condição se torne verdadeira. Para essa espera
ser "eficiente", o processo deve esperar no estado bloqueado (sem competir pela UCP). Dois
tipos de bloqueio são considerados básicos:

1. bloquear até que um recurso se torne disponível;10


2. bloquear até que chegue um sinal de outro processo.

Estes bloqueios são caracterizados pelas operações básicas lock/unlock e block/wakeup(P),


descritas a seguir. Enquanto o primeiro par (lock/unlock) implementa sincronização do tipo
exclusão mútua, o segundo par implementa uma forma básica de comunicação.

lock; . . . ; unlock
Um processo só entra num trecho delimitado pelo par lock/unlock se nenhum outro processo está
executando em um outro trecho delimitado dessa maneira. Isto é, o primeiro processo que
executa o comando lock passa e tranca a passagem (chaveia a fechadura) para os demais. O
comando unlock deixa passar (desbloqueia) o primeiro processo da fila de processos que estão
bloqueados por terem executado um lock (enquanto a fechadura estava trancada). Se a fila está
vazia, a fechadura é destrancada (isto é, é deixada aberta).

block/wakeup(P)
Quando um processo P executa o comando block, ele se bloqueia até que um outro processo
execute o comando wakeup(P). Este último comando acorda (desbloqueia) o processo
especificado por P. Se wakeup(P) é executado antes, o processo P não se bloqueia ao executar o
block. Na linguagem Vale4, o argumento de wakeup pode ser um nome de processo ou um
número único de processo ou thread.
Na verdade, os comandos lock e unlock não formam uma estrutura sintática (isto é, não
precisam estar casados, como se fossem um abre e fecha parênteses), eles são comandos
independentes. Na linguagem Vale4, as operações lock e unlock também podem ser referidas
pelos nomes mutexbegin e mutexend, respectivamente.

7 Semáforos

As variáveis semáforas são variáveis especiais que admitem apenas duas operações, denominadas
P e V.11 Sendo S é uma variável semáfora, as operações P e V têm a seguinte semântica:

• P(S) : espera até S ser maior que 0 e então subtrai 1 de S;

10
O recurso pode ser, inclusive, "o direito de acessar os dados compartilhados".
11
P e V são as iniciais das palavras holandesas Proberen e Verhogen, que significam testar e incrementar,
respectivamente.
PROGRAMAÇÃO CONCORRENTE – Prof. Simão Toscani 13
(Do livro Sistemas Operacionais e Programação Concorrente, Toscani S.S., Oliveira R.S. e Carissimi A.S.
Editora Sagra-Luzzatto, 2003)
• V(S) : incrementa S de 1.

As operações “testar S e subtrair 1 (se S > 0)” e “incrementar S de 1” são executadas de


forma atômica (indivisível), no kernel do SO. Se S = 1 e dois processos executam P(S)
“simultaneamente”, um dos processos vai ficar bloqueado.
Pode-se fazer analogia entre uma variável semáfora e um vaso contendo bolitas (bolinhas
de gude). O valor numérico do semáforo corresponde ao número de bolitas dentro do vaso. Uma
operação V corresponde a pôr uma bolita no vaso. Cada operação P tenta remover uma bolita; se
nenhuma está disponível, então a operação bloqueia o processo e o coloca numa fila de espera.
Quando uma bolita é colocada no vaso (operação V), ela é removida pelo primeiro processo da
fila de espera, o qual prossegue sua execução.

Sincronizações básicas com semáforos

As variáveis semáforas permitem implementar os dois tipos básicos de bloqueio, conforme é


explicado a seguir.

Sincronização tipo lock/unlock:

A sincronização do tipo exclusão mútua é implementada através de um semáforo com valor


inicial 1. O acesso exclusivo a n regiões críticas seria implementado como segue:

X : semaphore initial 1

P1: P2: ... Pn:


... ... ...
P(X); P(X); P(X);
REGIÃO CRÍTICA; REGIÃO CRÍTICA; REGIÃO CRÍTICA;
V(X); V(X); V(X);
... ... ...

Sincronização tipo block/wakeup(P):


Este tipo de sincronização é implementado através de um semáforo com valor inicial zero. Por
exemplo, se a operação B do processo P1 deve ser executada após a operação A do processo P2,
programa-se da seguinte maneira:

Y : semaphore initial 0

P1: P2:
... ...
P(Y); % block ...
B; A;
... V(Y); % wakeup(P1)
... ...

PROGRAMAÇÃO CONCORRENTE – Prof. Simão Toscani 14


(Do livro Sistemas Operacionais e Programação Concorrente, Toscani S.S., Oliveira R.S. e Carissimi A.S.
Editora Sagra-Luzzatto, 2003)
8 Programas clássicos

Esta seção apresenta 4 problemas clássicos da programação concorrente, todos resolvidos através
do uso de semáforos e todos escritos de acordo com a sintaxe de Vale4.

Produtor-consumidor com buffer limitado

Este problema pode ser enunciado como segue. Um par de processos compartilha um buffer de N
posições. O primeiro processo, denominado produtor, passa a vida a produzir mensagens e a
colocá-las no buffer. O segundo processo, denominado consumidor, passa a vida a retirar
mensagens do buffer (na mesma ordem em que elas foram colocadas) e a consumí-las.
A relação produtor-consumidor ocorre comumente em sistemas concorrentes e o
problema se resume em administrar o buffer que tem tamanho limitado. Se o buffer está cheio, o
produtor deve se bloquear, se o buffer está vazio, o consumidor deve se bloquear. A programação
desse sistema com buffer de 5 posições e supondo que as mensagens sejam números inteiros, é
mostrada a seguir.

Variáveis globais: buffer: array[5] of integer;


cheios: semaphore initial 0;
vazios: semaphore initial 5;
Processo produtor: Processo consumidor:
msg, in : integer; msg, out : integer;
loop loop
% produz mensagem msg P(cheios);
P(vazios); out:= (out mod 5)+1;
in:= (in mod 5)+1; msg:= buffer[out];
buffer[in]:= msg; V(vazios);
V(cheios) % consome a mensagem
endloop endloop

O semáforo cheios conta o número de buffers cheios e o semáforo vazios conta número de
buffers vazios. Conforme já foi referido, as variáveis inteiras que não são inicializadas tem seu
valor inicial igual a zero.
Observe que a solução não se preocupou em garantir exclusão mútua no acesso ao buffer.
Isto porque os dois processos trabalham com variáveis locais in, out e msg e, certamente, irão
acessar sempre posições diferentes do vetor global buffer.

Jantar dos Filósofos

Este problema ilustra as situações de deadlock e de postergação indefinida que podem ocorrer em
sistemas nos quais processos adquirem e liberam recursos continuamente.
Existem N filósofos que passam suas vidas pensando e comendo. Cada um possui seu
lugar numa mesa circular, em cujo centro há um grande prato de spaghetti. A figura 6 ilustra a
situação para 5 filósofos. Como a massa é muito escorregadia, ela requer dois garfos para ser
PROGRAMAÇÃO CONCORRENTE – Prof. Simão Toscani 15
(Do livro Sistemas Operacionais e Programação Concorrente, Toscani S.S., Oliveira R.S. e Carissimi A.S.
Editora Sagra-Luzzatto, 2003)
comida. Na mesa existem N garfos, um entre cada dois filósofos, e os únicos garfos que um
filósofo pode usar são os dois que lhe correspondem (o da sua esquerda e o da sua direita). O
problema consiste em simular o comportamento dos filósofos procurando evitar situações de
deadlock (bloqueio permanente) e de postergação indefinida (bloqueio por tempo indefinido).

filósofo 3

garfo 3 garfo 2

filósofo 4 filósofo 2
spaghetti

garfo 4 garfo 1

filósofo 5 filósofo 1
garfo 5

Figura 6 - A mesa dos 5 filósofos

Da definição do problema, tem-se que nunca dois filósofos adjacentes poderão comer ao
mesmo tempo e que, no máximo, N/2 filósofos poderão estar comendo de cada vez. Na solução a
seguir, iremos nos concentrar no caso de 5 filósofos. Os garfos são representados por um vetor de
semáforos e é adotada a seguinte regra: todos os 5 filósofos pegam primeiro o seu garfo da
esquerda, depois o da direita, com exceção de um deles, que é do contra. Pode ser demonstrado
que esta solução é livre de deadlocks. Foi escolhido o filósofo 1 para ser do contra.
O programa a seguir é um programa Vale4 completo, no qual cada filósofo faz 10
refeições e morre.

V4program
garfo: array[5] of semaphore init 1; % array global
procedure getForks(i: integer);
j: integer;
{ j := i-1 ; % j é o garfo da esquerda
if j = 0 then { P(garfo[1]); P(garfo[5]) }
else { P(garfo[j]); P(garfo[i]) }
};
procedure putForks(i: integer);
j: integer;
{ j := i-1 ; % j é o garfo da esquerda
if j = 0 then { V(garfo[1]); V(garfo[5]) }
else { V(garfo[j]); V(garfo[i]) }
};

process filosofo (i:= 1 to 5);

PROGRAMAÇÃO CONCORRENTE – Prof. Simão Toscani 16


(Do livro Sistemas Operacionais e Programação Concorrente, Toscani S.S., Oliveira R.S. e Carissimi A.S.
Editora Sagra-Luzzatto, 2003)
k: integer init 10;
while k > 0 do
{ getForks(i);
nl; write(‘filosofo ’); write(i); write(‘ comecou a comer’);
putForks(i);
nl; write(‘filosofo ’); write(i); write(‘ parou de comer’);
k:=k-1
}
endprogram

Barbeiro dorminhoco

O problema consiste em simular o funcionamento de uma barbearia com as seguintes


características. A barbearia tem uma sala de espera com N cadeiras e uma cadeira de barbear. Se
não tem clientes à espera, o barbeiro senta numa cadeira e dorme. Quando chega um cliente, ele
acorda o barbeiro. Se chega outro cliente enquanto o barbeiro está trabalhando, ele ocupa uma
cadeira e espera (se tem alguma cadeira disponível) ou vai embora (se todas as cadeiras estão
ocupadas).
A solução a seguir usa 3 semáforos: clientes, fila e mutex. O semáforo clientes tranca o
barbeiro, sendo suas “bolitas” produzidas pelos clientes que chegam. O valor desse semáforo
indica o número de clientes à espera (excluindo o cliente na cadeira do barbeiro, que não está à
espera). O semáforo fila tranca os clientes e implementa a fila de espera. O semáforo mutex
garante exclusão mútua. Também é usada uma variável inteira, count, que conta o número de
clientes à espera. O valor desta variável é sempre igual ao “número de bolitas” do semáforo
clientes.
Um cliente que chega na barbearia verifica o número de clientes à espera. Se esse número
é menor que o número de cadeiras, o cliente espera, caso contrário, ele vai embora. A solução é
apresentada a seguir, considerando o número de cadeiras na sala de espera igual a 3.
Inicialmente, o barbeiro executa a operação P(clientes), onde fica bloqueado (dormindo)
até a chegada de algum cliente. Quando chega um cliente, ele começa adquirindo a exclusão
mútua. Outro cliente que chegar imediatamente após, irá se bloquear até que o primeiro libere a
exclusão mútua. Dentro da região crítica, o cliente verifica se o número de pessoas à espera é
menor ou igual ao número de cadeiras. Se não é, ele libera mutex e vai embora sem cortar o
cabelo.
Se tem alguma cadeira disponível, o cliente incrementa a variável count e executa a
operação V no semáforo clientes. Se o barbeiro está dormindo, ele é acordado; caso contrário, é
adicionada uma “bolita” no semáforo clientes. A seguir, o cliente libera a exclusão mútua e entra
na fila de espera. O barbeiro adquire a exclusão mútua, decrementa o número de clientes, pega o
primeiro da fila de espera e vai fazer o corte.

Variáveis globais: clientes, fila: semaphore init 0;


mutex: semaphore init 1;
count : integer initial 0;

Processo barbeiro: Processo cliente:

PROGRAMAÇÃO CONCORRENTE – Prof. Simão Toscani 17


(Do livro Sistemas Operacionais e Programação Concorrente, Toscani S.S., Oliveira R.S. e Carissimi A.S.
Editora Sagra-Luzzatto, 2003)
loop P(mutex);
P(clientes); /*dorme, se for o caso*/ if count < 3
P(mutex); then { count:= count+1;
count:= count –1; V(clientes); /*acorda o barbeiro*/
V(fila); /*pega próximo cliente*/ V(mutex);
V(mutex); P(fila); /*espera o barbeiro*/
/*corta o cabelo*/ /*corta o cabelo*/
endloop }
else V(mutex)

Quando termina o corte de cabelo, o cliente deixa a barbearia e o barbeiro repete o seu
loop onde tenta pegar um próximo cliente. Se tem cliente, o barbeiro faz outro corte. Se não tem,
o barbeiro dorme.

PROGRAMAÇÃO CONCORRENTE – Prof. Simão Toscani 18


(Do livro Sistemas Operacionais e Programação Concorrente, Toscani S.S., Oliveira R.S. e Carissimi A.S.
Editora Sagra-Luzzatto, 2003)
Leitores e escritores

O problema dos readers and writers [COU71] ilustra outra situação comum em sistemas de
processos concorrentes. Este problema surge quando processos executam operações de leitura e
de atualização sobre um arquivo global (ou sobre uma estrutura de dados global). A
sincronização deve ser tal que vários readers (isto é, processos leitores, que não alteram a
informação) possam utilizar o arquivo simultaneamente. Entretanto, qualquer processo writer
deve ter acesso exclusivo ao arquivo.
Na solução a seguir é dada prioridade para os processos readers. São utilizadas duas
variáveis semáforas, mutex e w, para exclusão mútua, e uma variável inteira nr, para contar o
número de processos leitores ativos. Note que o primeiro reader bloqueia o progresso dos writers
que chegam após ele, através do semáforo w. Enquanto houver reader ativo, os writers ficarão
bloqueados.

Variáveis globais: mutex, w : semaphore initial 1;


nr : integer initial 0;

Processo leitor:
...
P(mutex); Processo escritor:
nr:=nr+1; ...
if nr=1 then P(w); ...
V(mutex); P(w);
READ WRITE
P(mutex); V(w);
nr:=nr-1; ...
if nr=0 then V(w); ...
V(mutex);
...

PROGRAMAÇÃO CONCORRENTE – Prof. Simão Toscani 19


(Do livro Sistemas Operacionais e Programação Concorrente, Toscani S.S., Oliveira R.S. e Carissimi A.S.
Editora Sagra-Luzzatto, 2003)
EXERCÍCIOS

1. Um semáforo binário é um semáforo cujo valor pode ser 0 ou 1. Mostre como um semáforo
geral pode ser implementado a partir de semáforos binários.

2. Considere a instrução TS(X,L) que executa o seguinte código de forma indivisível:


if X then go to L else X:=true;
Mostre como implementar as operações P e V sobre um semáforo binário usando a instrução
TS.

3. Usando semáforos, complete o programa Vale4 a seguir, de maneira que o resultado impresso
seja sempre "AAAAABBBBB" (isto é, cada processo só pode imprimir 'B' depois de todos os
outros terem impresso 'A').

V4program
...
process P (i := 1 to 5);
...
{ ...
write('A');
...
write('B');
...
}
endprogram

4. Usando a linguagem V4 e variáveis semáforas, escreva um programa formado por 6


processos p1, p2, ..., p6, onde pi (1 ≤ i ≤ 6) imprime 10 vezes o número i. Os processos
devem estar sincronizados de acordo com o grafo de fluxo de processos abaixo:

I
p1 p3
p2
p5
p4

p6

5. Explique por que a solução apresentada no texto para o problema do produtor-consumidor


não suporta múltiplos processos produtores e múltiplos processos consumidores.

6. Implemente uma solução para o problema do buffer limitado, considerando um processo


produtor e vários consumidores.

PROGRAMAÇÃO CONCORRENTE – Prof. Simão Toscani 20


(Do livro Sistemas Operacionais e Programação Concorrente, Toscani S.S., Oliveira R.S. e Carissimi A.S.
Editora Sagra-Luzzatto, 2003)
7. Descreva o erro na implementação do produtor-consumidor mostrada abaixo. Crie uma
seqüência de eventos que termina em algum comportamento indesejado para o programa.

buffer: array [N] of integer;


proxima_insercao, proxima_remocao: integer init 0;
exclusao_mutua: semaphore init 1;
espera_vaga: semaphore init N;
espera_dado: semaphore init 0;
process produtor;
{ ...
P( exclusao_mutua );
P( espera_vaga );
buffer[ proxima_insercao ] := dado_produzido;
proxima_insercao := ( proxima_insercao + 1 ) % N;
V( exclusao_mutua );
V( espera_dado );
...
};
process consumidor;
{ ...
P( exclusao_mutua );
P( espera_dado );
dado_a_consumir := buffer[ proxima_remocao ];
proxima_remocao := ( proxima_remocao + 1 ) % N;
V( exclusao_mutua );
V( espera_vaga );
...
}

8. Simplifique a solução para o problema do produtor-consumidor para o caso de existir apenas


uma vaga disponível no buffer circular.

PROGRAMAÇÃO CONCORRENTE – Prof. Simão Toscani 21


(Do livro Sistemas Operacionais e Programação Concorrente, Toscani S.S., Oliveira R.S. e Carissimi A.S.
Editora Sagra-Luzzatto, 2003)
BIBLIOGRAFIA

[CON63] CONWAY, M. E. A Multiprocessor system design. Proc. AFIPS Fall Joint


Computer Conference, pp.139-146. Las Vegas, Nevada, 1963.
[COU71] COURTOIS, P. J., HEYMANS, F.and PARNAS, D. L. Concurrent Control with
“Readers” and “Writers”. Comm. ACM 14, No. 10 (October), 667-668, 1971.
[DIJ65] DIJKSTRA, E. W. Cooperating Sequential Processes. Technical Report EWD-123,
Technological University, Eindhoven, the Netherlands, 1965. Reprinted in: Programming
Languages (F. Genuys, ed.) pp. 43-112. Academic Press, New York, 1968.
[HOA74] HOARE, C. A. R. Monitors: An Operating System Structuring Concept. Comm.
ACM 17, No. 10 (October), 549-557, 1974. Erratum in Comm. ACM 18, No. 2, page
95 (January) 1975.
[OLI04] OLIVEIRA, R, CARISSIMI, A., TOSCANI, S. Sistemas Operacionais. Série didática
do II-UFRGS, 2004 (3ª edição).
[SHA84] SHATZ, S. M. Communication mechanisms for programming distributed systems.
Computer 17, No. 6, pp.21-28, 1984.
[TAF97] TAFT, S. T. DUFF, R. A. ADA 95 Reference Manual: language and standard
libraries. Springer-Verlag, 1995. (Lecture Notes in Computer Science, Vol 1246).
[TOS03] TOSCANI, S., OLIVEIRA, R., CARISSIMI, A., Sistemas Operacionais e
Programação Concorrente. Série didática do II-UFRGS, 2003.
[TOS04] TOSCANI, S. S. Kit de instalação da linguagem VALE4. Disponível em
www.inf.pucrs.br/~stoscani/V4.

PROGRAMAÇÃO CONCORRENTE – Prof. Simão Toscani 22


(Do livro Sistemas Operacionais e Programação Concorrente, Toscani S.S., Oliveira R.S. e Carissimi A.S.
Editora Sagra-Luzzatto, 2003)

You might also like