You are on page 1of 11

INSTITUTOTECNOLGICODECULIACN

ALUMNO:
GONZLEZVEGAEDITH
MATERIA:
ARQUITECTURADECMPUTO
TRABAJO:
UNIDAD4:PROCESAMIENTOPARALELO
HORARIO:
14:0015:00PM

Culiacn,Sinaloa.
14Noviembre2013
ndice
UNIDAD4
4Procesamientoparalelo
4.1Aspectosbsicosdelacomputacinparalela
4.2Tiposdecomputacinparalela
4.2.1Taxonomadelasarquitecturasparalelas
4.2.2Arquitecturadeloscomputadoressecuenciales4.2.2.1TaxonomadeFlynn
4.2.2.2Organizacindelespaciodedireccionesdememoria4.3Sistemasdememoriacompartida:
Multiprocesadores
4.3.1Redesdeinterconexindinmicasoindirectas4.3.1.1Redesdemediocompartido
4.3.1.2Redesconmutadas
4.3.2Coherenciadecache
4.4Sistemasdememoriadistribuida.Multicomputadores:Clster
4.4.1Redesdeinterconexinestticas
4.4.2Clster
4.4.3Programacindeclster
4.4.4Consideracionessobreelrendimientodelosclster
4.5Casosdeestudio

Introduccin
Enestainvestigacinsehablarasobreeldesarrolloquellevaacaboelprocesamientoparaleloquetratadeun
procesoempleadoparaacelerareltiempodeejecucindeunprogramadiviendoloenmltiplestrozosquese
ejecutaranalmismotiempo,cadaunoensupropioprocesador.
Enprincipio,unprogramadivididoentrozosdeestaforma,podraejecutarseavecesmsrpido,quesu
equivalenteenunsoloprocesador,peroanasquedaclaroquesteessulmiteterico(esdecirelmximo
quepodremosalcanzar)pudiendoconseguirenelmejordeloscasosunvaloraproximadoconunbuen
paralelismo.

Elprocesamientoenparaleloesunaformaeficazdeprocesamientodeinformacinquefavorecela
explotacindelossucesosconcurrentesenelprocesodecomputacin.
Laconcurrenciaimplicaparalelismo,simultaneidadypipeline.
Haytrestiposdesucesos:
SucesosParalelos:ocurrenenmltiplesrecursosduranteelmismointervalodetiempo.
SucesosSimultneos:ocurrenenelmismoinstante.
SucesosPipeline:ocurrenenlapsossuperpuestos.
Sepuedehablardenivelesdeparalelismo,quecaracterizamosdelasiguientemanera:
Multiprogramacin,Multiprocesamiento:EstasaccionessetomananiveldeProgramaoTrabajo.
TareaoProcedimientos:Accionesquesetomandentrodeunmismoprograma,ejecutndoseprocesos
independientesenformasimultnea.
Interinstrucciones:Accionesaniveldeinstruccin,osea,dentrodemismoprocesootareasepueden
ejecutarinstruccionesindependientesenformasimultnea.
Intrainstrucciones:Accionessimultneasquesepuedenrealizarparaunamismainstruccin,porejemplo
vectorizacindeoperacionesescalaresdentrodeunainstruccincomplejatipoDO,FOR,etc.
Elparalelismodeunmayornivelseobtienepormediodealgoritmos,losdemenornivelconimportante
actividaddelhardware.
PROCESAMIENTOPARALELO
Esunprocesoempleadoparaacelerareltiempodeejecucindeunprogramadividindoloenmltiplestrozos
queseejecutaranalmismotiempo,cadaunoensupropiosprocesadores.
Elprocesamientoenparalelosebasaprincipalmenteenmultiprocesadoresfuertementeacopladosque
cooperanparalarealizacindelosprocesos.
Suscaractersticasson:
poseedosomsprocesadoresdeusogeneralsimilaresydecapacidadescomparables.
todoslosprocesadorescompartenelaccesoaunamemoriaglobal
tambinpuedeutilizarsealgunasmemoriaslocales(privadascomolacache).
Elprocesamientoparaleloimplicaunaseriededificultadesanivelprogramacindesoftwarelaventajadel
procesamientoenparaleloesejecutaprocesosendondecadaprocesadorseencargardeunouotroyaceleran
deestaformaelclculo.
4.1Aspectosbsicosdelacomputacinparalela
LacomputacinParalela,esmuyimportanteactualmente,alpermitirmejorarlavelocidadenlasolucinde
grandesproblemas,demodoquesemejoraelrendimientodecomputo.
Lacomputacinparalelaesunaformadecmputoenlaquemuchasinstruccionesseejecutan
simultneamente,operandosobreelprincipiodequeproblemasgrandes,amenudosepuedendividirenunos
mspequeos,queluegosonresueltossimultneamente(enparalelo).Hayvariasformasdiferentesde
computacinparalela:paralelismoaniveldebit,paralelismoaniveldeinstruccin,paralelismodedatosy
paralelismodetareas.Elparalelismosehaempleadodurantemuchosaos,sobretodoenlacomputacinde
altasprestaciones,peroelintersenellahacrecidoltimamentedebidoalaslimitacionesfsicasqueimpiden
elaumentodelafrecuencia.Comoelconsumodeenergayporconsiguientelageneracindecalorde
lascomputadorasconstituyeunapreocupacinenlosltimosaos,lacomputacinenparaleloseha
convertidoenelparadigmadominanteenlaarquitecturadecomputadores,principalmenteenforma
deprocesadoresmultincleo.
Lascomputadorasparalelaspuedenclasificarsesegnelniveldeparalelismoqueadmitesuhardware:

equiposconprocesadoresmultincleoymultiprocesadorquetienenmltipleselementosdeprocesamiento
dentrodeunasolamquinaylosclsteres,MPPSygridsqueutilizanvariosequiposparatrabajarenla
mismatarea.Muchasveces,paraacelerarlatareasespecficas,seutilizanarquitecturasespecializadasde
computacinenparalelojuntoaprocesadorestradicionales.
Losprogramasinformticosparalelossonmsdifcilesdeescribirquelossecuenciales,5porquela
concurrenciaintroducenuevostiposdeerroresdesoftware,siendolascondicionesdecarreralosms
comunes.Lacomunicacinysincronizacinentrediferentessubtareassonalgunosdelosmayoresobstculos
paraobtenerunbuenrendimientodelprogramaparalelo.
Lamximaaceleracinposibledeunprogramacomoresultadodelaparalelizacinseconocecomolaleyde
Amdahl.
Elparalelismopuedeobtenersededistintasmaneras:
Multicomputadoras:Computadorasindependientes,muyamenudounadeellasactacomosupervisor,que
realizanunatareacomnenunasolaubicacin(unaconfiguracinmuycomn,aunqueciertamentelimitada,
eslaminicomputadoracomopreprocesadordeuncomputadormainframe)
Multiprocesadores:Unconjuntodeunidadesdecmputo,cadaunadelascualestienesuspropiosconjuntos
deinstruccionesydatos,compartiendounamismamemoria.Loscomputadoresmultiprocesadoresconsisten
enunnmeronmayoroiguala2deprocesadoresqueoperansimultneamentesobreunamismamemoria,y
estninterconectadosmediantecanalesquetransmitencomandosdecontrolydatos.Estncontroladosporun
nicoSistemaOperativo.
Redesdecomputadoras:Computadorasindependientesconectadasmedianteuncanaldemaneratalquelos
recursospropiosdisponiblesenunpuntodelaredpuedenestardisponiblesparatodoslosmiembrosdelared.
ProcesadorPipeline:Unsolocomputadorelcualpuederealizarsimultneamenteoperacionesdeclculosen
determinadassecciones,condiferentesestadiosdecompletitud.Losprocesadorespipelinesebasanenel
principiodedividirlosclculosentreunacantidaddeunidadesfuncionalesqueoperansimultneamente
existiendosuperposicin.
ProcesadorArray:Ungrupodeunidadesdecmputocadaunadelascualesrealizasimultneamentela
mismaoperacinsobrediferentesconjuntosdedatos.Losprocesadoresarrayoperansobrevectores.Las
instruccionesdelcomputadorvectorialsonejecutadasenserie(comoenloscomputadoresclsicos)pero
trabajanenformaparalelasobrevectoresdedatos.
AlgunosAspectosaconsiderarson:
Diseodecomputadoresparalelos.Escalabilidadycomunicaciones
Diseodealgoritmoseficientes.Nohaygananciasilosalgoritmosnosediseanadecuadamente
Mtodosparaevaluarlosalgoritmosparalelos.Cmoderpidosepuederesolverunproblemausandouna
maquinaparalela?Conqueeficienciaseusanesosprocesadores?
Lenguajesparacomputadoresparalelos,flexiblesparapermitirunaimplementacineficienteyquesean
fcilesdeprogramar.
4.2Tiposdecomputacinparalela
Lacomputacinparalelaoprocesamientoenparaleloconsisteenacelerarlaejecucindeunprograma
mediantesudescomposicinenfragmentosquepuedenejecutarsedeformasimultnea,cadaunoensupropia
unidaddeproceso
Enestesentidosehablademayoromenorgradodeparalismoenlamedidaenqueunalgoritmoseamso
menosdivisibleenpartesindependientesconigualcostecomputacional.
Entrelasinteraccioneshayqueconsiderardossiguientes:latransferenciadedatos.
lasincronizacindelosclculosdelosdiferentesprocesadores
TiposdecomputadoressegnlataxonomadeFlynn:
SISD:Computadorsecuencial.Unprocesadoryunamemoria.Computadorsecuencial.
SIMD:MquinaconvariosprocesadoresperounanicaUnidaddeControl.Computadorvectorial.

MIMD:Mquinaconvariosprocesadorescompletos.Computadorparalelo.
4.2.1Taxonomadelasarquitecturasparalelas
Lasdiferentesposibilidadesexistentesparadesarrollarsistemasparaleloshacenqueunaclasificacin
definitivaseacomplicada,yseguramenteestril.Enprimerlugarlascaractersticasbsicasdelmodelo
secuencial,conelfindedelimitarlosaspectosbsicosquesoncomunesodiferentesdelossistemas
paralelos.
Unaclasificacinclsicapropuestaporflynnquesebasaenelflujodeinstruccionesyenelflujodedatos,es
decirelmecanismodecontrolutilizado.
4.2.2Arquitecturadeloscomputadoressecunciales
Loscomputadoressecuenciales,tambindenominadoscomputadoresserie,sebasanenlaarquitecturadej.
vonneumann.Enestemodeloseconsideraunanicasecuenciadeinstruccionesquetratanunanica
secuenciadedatos.Porelloseconocencomocomputadores
Laprogramacinparalelapermite:
ResolverproblemasquenocabenenunaCPU
Resolverproblemasquenoseresuelvenenuntiemporazonable
Sepuedenejecutar
Problemasmayores
Msrpidamente(aceleracin)
Msproblemas
4.2.2.1TaxonomadeFlynn
Clasificacinclsicadearquitecturadecomputadoresquehacealusinasistemasconunoovarios
procesadores.Flynnlapublicporprimeravezen1966yporsegundavezen1970.Estataxonomasebasaen
elflujoquesiguenlosdatosdentrodelamquinaydelasinstruccionessobreesosdatos.Sedefinecomo
flujodeinstruccionesalconjuntodeinstruccionessecuencialesquesonejecutadasporunnicoprocesadory
comoflujodedatosalflujosecuencialdedatosrequeridosporelflujodeinstrucciones.
Conestasconsideraciones,Flynnclasificalossistemasencuatrocategoras:
SISD(SingleInstructionstream,SingleDatastream)
Lossistemasdeestetiposecaracterizanportenerunnicoflujodeinstruccionessobreunnicoflujode
datos,esdecir,seejecutaunainstruccindetrsdeotra.EsteeselconceptodearquitecturaseriedeVon
Neumanndonde,encualquiermomento,sloseejecutaunanicainstruccin.
SIMD(SingleInstructionstream,MultipleDatastream)
Estossistemastienenunnicoflujodeinstruccionesqueoperansobremltiplesflujosdedatos.Ejemplosde
estossistemaslostenemosenlasmquinasvectorialesconhardwareescalaryvectorial.Elprocesamientoes
sncrono,laejecucindelasinstruccionessiguesiendosecuencialcomoenelcasoanterior,todoslos
elementosrealizanunamismainstruccinperosobreunagrancantidaddedatos.Porestemotivoexistir
concurrenciadeoperacin,esdecir,estaclasificacineselorigendelamquinaparalela.Elfuncionamiento
deestetipodesistemaseselsiguiente.LaUnidaddeControlmandaunamismainstruccinatodaslas
unidadesdeproceso(ALUs).Lasunidadesdeprocesooperansobredatosdiferentesperoconlamisma
instruccinrecibida.
Existendosalternativasdistintasqueaparecendespusderealizarseestaclasificacin:Arquitectura
Vectorialconsegmentacin:UnaCPUnicaparticionadaenunidadesfuncionalesindependientestrabajando
sobreflujosdedatosconcretos
ArquitecturaMatricial(matrizdeprocesadores):VariasALUsidnticasalasqueelprocesadorde
instruccionesasignaunanicainstruccinperotrabajandosobrediferentespartesdelprograma.
SIMDCONCPUPARTICIONADA:Enestetipodesistemas,laCPUsediseacomounconjuntode
unidadesfuncionalesindependientesqueejecutansimultneamentevariasoperacionesaritmtico/lgicas.La
CPUcontieneunnicoprocesadorconinstruccionesqueprocesaunnicoflujodeestasliberandocada

instanteuna.Debidoaquelasunidadesfuncionalesoperanindependientemente,esposibleliberarnuevas
instruccionesantesdequefinalicelaejecucindelasinstruccionesprevias.
SIMDCONMULTIPLESALUS:Estossistemastrabajanenmodolockstep,ejecutandooignorandouna
mismainstruccinparatodaslasALUs.Existeunnicoprocesadorquemanejaelflujodeinstruccionesdel
programayquetransfieretodaslasinstruccionesalasdiferentesunidadesaritmtico/lgicas.
MIMD(MultipleInstructionstream,MultipleDatastream):Sistemasconunflujodemltiplesinstrucciones
queoperansobremltiplesdatos.Estossistemasempezaronautilizarseaprincipiosdelos80.Sonsistemas
conmemoriacompartidaquepermitenejecutarvariosprocesossimultneamente(sistemamultiprocesador).
Cuandolasunidadesdeprocesorecibendatosdeunamemorianocompartidaestossistemasrecibenel
nombredeMULTIPLESISD(MSISD).
Enarquitecturasconvariasunidadesdecontrol(MISDYMIMD),existeotronivelsuperiorconunaunidad
decontrolqueseencargadecontrolartodaslasunidadesdecontroldelsistema.
4.2.2.2Organizacindelespaciodedireccionesdememoria
Elintercambiodeinformacinentreprocesadoresdependedelsistemadealmacenamientoquesedisponga.
Sistemasdememoriacompartidaomultiprocesadores
Secaracterizanporcompartirfsicamentelamemoria,esdecirtodosaccedenalmismoespaciode
direcciones.Enestaarquitecturaalamemoriaesigualmenteaccesibleportodoslosprocesadoresatravsde
lareddeinterconexin.
Sistemasdememoriadistribuidaomulticomputadores
Enestossistemascadaprocesadordisponedesupropiamemoria.Denominadalocaloprivada,independiente
delrestoyaccesiblesoloporsuprocesador.
ExistendosespaciosdedireccindisponiblesparaelmicrocontroladorZ8PLUS:
ElarchivoderegistrosdelaRAMcontienedireccionesparatodoslosregistrosdecontrolylosdepropsito
general.
Lamemoriadeprogramacontienedireccionesparatodaslaslocalidadesdememoriadondesehallan
guardadocdigosodatosejecutables.
4.3Sistemasdememoriacompartida:multiprocesadores
Cadaprocesadorposeesupropiaunidaddecontrolejecutasupropiocdigosobresuspropiosdatos,puede
ejecutarcualquieraplicacin(nosoloprogramasvectoriales).
Clasificacindelosmultiprocesadoresporlaubicacindelamemoria
MultiprocesadoresdeMultiprocesadoresdememoriacompartidamemoriacompartida
Todoslosprocesadoresaccedenaunamemoriacomn
Lacomunicacinentreprocesadoressehaceatravsdelamemoria
Senecesitanprimitivasdesincronismoparaasegurarelintercambiodedatos
MultiprocesadoresdememoriacompartidaLamayoradelosmultiprocesadorescomercialessondeltipo
UMA(LamayoradelosmultiprocesadorescomercialessondeltipoUMA(UniformUniformMemory
Access):todoslosprocesadorestienenigualtiempodeaccesoalamemoriacompartida.
EnlaarquitecturaUMAlosprocesadoresseconectanalamemoriaatravsdeunbus,una
redmultietapaounconmutadordebarrascruzadas(crossbar)ypppydisponendesupropia
memoriacach.
LosprocesadorestipoNUMA(NonUniformMemoryAccess)presentantiemposdeaccesoa
lamemoriacompartidaquedependendelaubicacindelelementodeprocesoylamemoria.
Multiprocesadoresdememoriacompartida:conexinporbuscompartido
EslaorganizacinmscomnenloscomputadorespersonalesyservidoresEslaorganizacinmscomn

enloscomputadorespersonalesyservidores
Elbusconstadelneasdedireccin,datosycontrolparaimplementar:
Elprotocolodetransferenciasdedatosconlamemoria
Elarbitrajedelaccesoalbuscuandomsdeunprocesadorcompiteporutilizarlo.
Losprocesadoresutilizancachslocalespara:
Reducireltiempomediodeaccesoamemoria,comoenunmonoprocesador
Disminuirlautilizacindelbuscompartido.
Protocolosdetransferenciasncronos
Existeunrelojquegobiernatodaslasactividadesdelbus,lascualestienenlugarenunnmeroenterode
ciclosdereloj.
Latransferenciacoincideconunodelosflancosdelreloj
Multiprocesadoresdememoriacompartida:conexinporconmutadorescrossbar
Cadaprocesador(Cadaprocesador(Pi)ycadamdulodememoria()ycadamdulodememoria(Mi)tienen
supropiobus)tienensupropiobus
Existeunconmutador(S)enlospuntosdeinterseccinquepermiteconectarunbusdememoriaconunbus
deprocesador
ParaevitarconflictoscuandomsdeunprocesadorpretendeaccederalmismomdulodeParaevitar
conflictoscuandomsdeunprocesadorpretendeaccederalmismomdulodememoriaseestableceunorden
deprioridad
Setratadeunaredsinbloqueoconunaconectividadcompletaperodealtacomplejidad.
Redesbasadasenbuses:Cuandounprocesadornecesitaaccesoglobalamemoria,generaunasolicitudal
bus.Estaredesatractiva,dadasusimplicidadycapacidadparaproporcionaraccesouniformealamemoria
compartida.Peroelbusslopuedellevarunadeterminadacantidaddedatosentrelamemoriaylos
procesadores.
Elrendimientosesaturaparaunnmeropequeodeprocesadores.Silosprocesadoresdisponendememorias
localescachsepuedesolventarelproblema.
Multiprocesadoresdememoriadistribuidaomulticomputadores
Cadaprocesadortienesupropiamemoria
Lacomunicacinserealizappjorintercambioexplicitodemensajesatravsdeunared
MEMORIACOMPARTIDACENTRALIZADA
Lamemoriacompartidaportodoslosprocesadoresyaccesibledesdecualquiera.Descompuestaenvarios
mdulosparapermitirelaccesoconcurrentedevariosprocesadores
Cadaprocesadordebetenerunespaciodedireccionamientosuficientementeampliocomoparapoder
direccionarlacompletamente.
Multiprocesadorconunsistemadememoriacompartidaenelcualeltiempodeaccesovaradependiendode
laubicacindelapalabradememoria.
Lamemoriacompartidasedistribuyefsicamenteportodoslosprocesadores(memoriaslocales).Elconjunto
dememoriaslocalesformaelespaciodedireccionamientoglobalaccesibleportodoslosprocesadores.Enlos
multiprocesadorescadaprocesadorsueletenerasociadaunacachelocalyellointroduceelproblemadela
coherenciaenchache:cualquiermodificacinlocaldeunadeterminadaposicindelamemoriacompartidase
realizaraprimeramentesobreunachachelocalyellopuededarlugaraunavisinglobalincoherentedela
memoria.loselementosqueintegranunmultiprocesadorpuedeestarconectadosentresatravsdeuna
estructura
Jerrquicadebuses.losbusesdigitalessonlossistemasdeinterconexinfundamentalesadoptadosensistemas
comercialesdesdeestacionesdetrabajoaminicomputadores,mainframesymultiprocesadores.
4.3.1Redesdeinterconexindinmicasoindirectas

Elobjetivodelainterconexinderedesdarunserviciodecomunicacindedatosqueinvolucrediversas
redescondiferentestecnologasdeformatransparenteparaelusuario.Esteconceptohacequelascuestiones
tcnicasparticularesdecadaredpuedanserignoradasaldisearlasaplicacionesqueutilizaranlosusuarios
delosservicios.
Losdispositivosdeinterconexinderedessirvenparasuperarlaslimitacionesfsicasdeloselementos
bsicosdeunaredextendiendolastopologasdeesta.
Elobjetivodelainterconexinderedesdarunserviciodecomunicacindedatosqueinvolucrediversas
redescondiferentestecnologasdeformatransparenteparaelusuario.Esteconceptohacequelascuestiones
tcnicasparticularesdecadaredpuedanserignoradasaldisearlasaplicacionesqueutilizaranlosusuarios
delosservicios.
Losdispositivosdeinterconexinderedessirvenparasuperarlaslimitacionesfsicasdeloselementosbsicos
deunaredextendiendolastopologasdeesta.
RedDinamica
Unareddinmicaesunaredcuyatopologapuedevariarduranteelcursodelaejecucindeunprograma
paralelooentredosejecucionesdeprogramas.Laredestconstituidaporelementosmaterialesespecficos,
llamadosconmutadoresoswitches.
Lasredesdinmicassonredesquepuedencambiarlatopologadecomunicacindurantelaejecucindelos
programasoentredosejecucionesdeprogramas.lasredesdinmicassehanutilizadoesencialmenteenlos
multiprocesadoresdememoriacompartida:lareddinmicasoportaporconsiguiente,lacargadeunirlos
procesadoresalosbancosdelamemoriacentral.

RedIndirecta
Lasredesindirectastambinpuedenmodelarseconungrafodondenesunconjuntodeswitchesycesel
conjuntodeenlacesunidireccionalesobidireccionalesentreswitches.Paraelanlisisdelamayorade
propiedades,noesnecesarioincluirexplcitamentelosnodosdeprocesamientoenelgrafo.Aunquelasredes
indirectaspuedenmodelarsedeformasimilaralasdirectas,existenalgunasdiferenciasentreellas.
Redesdeinterconexinmultietapa
Esuntipoderedintermediaentrminosdeescalabilidadencostoyrendimiento.Conectapelementoscon
otrospelementos.
4.3.1.1Redesdemediocompartido
Dependiendodesuarquitecturaydelosprocedimientosempleadosparatransferirlainformacinlasredesde
comunicacinseclasificanen:
Redesconmutadas
Redesdedifusin
4.3.1.2Redesconmutadoras
Consisteenunconjuntodenodosinterconectadosentresi,atravsdemediosdetransmisin,formandola
mayoradelasvecesunatopologamallada,dondelainformacinsetransfiereencaminndoladelnodode
origenalnododestinomedianteconmutacinentrenodosintermedios.
Unatransmisindeestetipotiene3fases:
Establecimientodelaconexin
Transferenciadelainformacin
Liberacindelaconexin
Laconmutacinenunnodoalaconexinfsicaolgicadeuncaminodeentradaalnodoconuncaminode
salidadelnodoconelfindetransferirlainformacinquellegueporelprimercaminoalsegundo.laredes
conmutadassonlasredesdereaextensa

Lasredesconmutadassedividenen:
Conmutacindepaquetes
Conmutacindecircuitos
Redesdebarrascruzadas:Utilizaunareddeconmutadores.
Conectapprocesadoresconbmdulosdememoria.
Elnmerototaldeconmutadoresrequeridoses(pb).
Conformecrecep,lacomplejidaddelaredaumentasegn(p2).
Portantonosonmuyescalablesentrminosdecoste.
4.3.2Coherenciadecach
Hacereferenciaalaintegridaddelosdatosalmacenadosenlascacheslocalesdelosrecursoscompartidos.La
coherenciadelacacheesuncasoespecialdelacoherenciadememoria.Coherenciadecacheescuando
existenvariascopiasdelmismodatosimultneamenteencachesdiferentesporlotantosilosprocesadores
actualizansuscopiaspuedenproducirseinconsistenciadememoria.Cuandounprocesadorcambiaundatoen
supropiacachelocalelcambiodebehacerseentodaslascachesquetienecopia.Alternativamentelasotras
copiassedebeninvalidar.Elprotocolodecoherenciaessituarlasvariableslocalesutilizadasrecientemente
enlacacheapropiadaymantelosallparalasdistintasescriturasylecturas,almismotiempoquesemantiene
Laconsistenciadelasvariablescompartidasquepudieronencontrarseenvariascachesalmismotiempo.
Generalmentesehandividoenaproximacionesdesoftwareyhardware:
Software:intentanevitarlanecesidaddecircuiteraylgicadehardwareadicionaldejandoqueel
compiladoryelsistemaoperativoseencarguedelproblema
Hardware:estossedenominanprotocolosdecoherenciadechacheypermitenreconocerdinmicamenteen
elmomentodelaejecucinlassituacionesdeinconsistenciaporlotantoexisteunusomsefectivodelas
cachesyreducelacomplejidadeneldesarrollodelsoftware.
LossistemasUMAnoescalanbien
Lossistemasbasadosenbussepuedensaturar.
Unareddebarrascruzadasgrandepuedesermuycara.
Problemadelacoherenciadecach
Puedehabercopiadeunavariableenvariascachs
Cuandounprocesadorescribepuedenoservisiblealresto
Esnecesarioasegurarlavisibilidadolacoherenciadecach
Solucindelacoherenciacach
Existendosformasdeabordarelproblemadelacoherenciacach.
Software,loqueimplicalarealizacindecompiladoresqueevitenlaincoherencia
entrecachsdedatoscompartidos.
Hardwareqg,uemantengandeformacontinualacoherenciaenelsistema,siendoadems
transparentealprogramador.
Podemosdistinguirtambindostiposdesistemasmultiprocesadores
Sistemasbasadosenunnicobus:seutilizanprotocolosdesondeoosnoopyqueanalizanelbuspara
detectarincoherencia.Cadanodoprocesadortendrlosbitsnecesariosparaindicarelestadodecadalneade
sucachyasrealizarlastransaccionesdecoherencianecesariassegnloqueocurraenelbusen
cadamomento.
Tantosisondesondeocomosino,existendospolticasparamantenerlacoherencia:
Invalidacinenescritura(writeinvalidate):siemprequeunprocesadormodificaundatodeunbloqueenla
cach,invalidatodaslasdemscopiasdeesebloqueguardadasenlasotrascachs.
Actualizacinenescritura(writeupdate):actualizalascopiasexistentesenlasotrascachsenvezde

invalidarlas.
4.4Sistemasdememoriadistribuida
Lossistemasdememoriadistribuidaomulticomputadorespuedenserdedostiposbsicos.Elprimerdeellos
constadeunnicocomputadorconmltiplesCPUscomunicadasporunbusdedatosmientrasqueenel
segundoseutilizanmltiplescomputadores,cadaunoconsupropioprocesador,enlazadosporunaredde
interconexinmsomenosrpida.
Sobrelossistemasdemulticomputadoresdememoriadistribuida,sesimulamemoriascompartidas.Seusan
losmecanismosdecomunicacinysincronizacindesistemasmultiprocesadores.
Unclsteresuntipodearquitecturaparaleladistribuidaqueconsistedeunconjuntodecomputadores
independientesinterconectadosoperandodeformaconjuntacomonicorecursocomputacionalsinembargo,
cadacomputadorpuedeutilizarsedeformaindependienteoseparada
Enestaarquitectura,elcomputadorparaleloesesencialmenteunacoleccindeprocesadoressecuenciales,
cadaunoconsupropiamemorialocal,quepuedentrabajarconjuntamente.
Cadanodotienerpidoaccesoasupropiamemoriayaccesoalamemoriadeotrosnodosmedianteunared
decomunicaciones,habitualmenteunareddecomunicacionesdealtavelocidad.
Losdatossonintercambiadosentrelosnodoscomomensajesatravsdelared.
Redesdeordenadores
Unareddeordenadores,especialmentesidisponendeunainterconexindealtavelocidad,puedeservista
comounmulticomputadordememoriadistribuidaycomotalserutilizadapararesolverproblemasmediante
computacinparalela.
4.4.1Redesdeinterconexinesttica
Lasredesestticasempleanenlacesdirectosfijosentrelosnodos.Estosenlaces,unavezfabricadoelsistema
sondifcilesdecambiar,porloquelaescalabilidaddeestastopologasesbaja.Lasredesestticaspueden
utilizarseconeficienciaenlossistemasenquepuedenpredecirseeltipodetrficodecomunicacionesentre
susprocesadores
Clasesderedesdeinterconexin:
Formacinlineal:
SetratadeunaredunidimensionalenquelosnodosseconectancadaunoconelsiguientemedianteN
1enlacesformandounalnea.
Mallasytoros:
Estareddeinterconexinesmuyutilizadaenlaprctica.Lasredesentorosonmallasenquesusfilasy
columnastienenconexionesenanillo,estocontribuyeadisminuirsudimetro.Estapequeamodificacin
permiteconvertiralasmallasenestructurassimtricasyademsreducesudimetroalamitad.
4.4.2Clster
Unclsteresungrupodeordenadoresdbilmenteacopladosquetrabajanenestrechacolaboracin,demodo
queenalgunosaspectospuedenconsiderarsecomounsoloequipo.Losclsteressecomponendevarias
mquinasindependientesconectadasporunared.Mientrasquelasmquinasdeunclsternotienenqueser
simtricas,denoserlo,elbalancedecargaesmsdifcildelograr.Eltipomscomndeclstereselcluster
Beowulf,queesunclsterimplementadoconmltiplesordenadorescomercialesidnticosconectadosa
unaredderealocalTCP/IPEthernet.LatecnologaBeowulffuedesarrolladaoriginalmenteporThomas
SterlingyDonaldBecker.LagranmayoradelossuperordenadoresTOP500sonclsteres.
Seaplicaalosconjuntosoconglomeradosdecomputadorasconstruidosmediantelautilizacindehardwares
comunesyquesecompartancomosifuesenunanicacomputadora.
Losclstersonusualmenteempleadosparamejorarelrendimientoyladisponibilidadporencimadelaquees
provistaporunsolocomputadortpicamentesiendomseconmicoquecomputadoresindividualesde
rapidezydisponibilidadcomparables.Deunclsterseesperaquepresentecombinacionesdelossiguientes

servicios:
1.Altorendimiento
2.Altadisponibilidad
3.Balancedecarga
4.Escalabilidad
Laconstruccindelosordenadoresdelclsteresmsfcilyeconmicadebidoasuflexibilidad:pueden
tenertodalamismaconfiguracindehardwareysistemaoperativodiferenterendimientoperocon
arquitecturaysistemasoperativossimilaresotenerdiferentehardwareysistemaoperativoloquehacems
fcilyeconmicasuconstruccin.Paraqueunclsterfuncionecomotalnobastasoloconconectarentresi
losordenadores,sinoqueesnecesarioproveerunsistemademanejodelclster,elcualseencarguede
interactuarconelusuarioylosprocesosqueocurrenenlparaoptimizarelfuncionamiento.
Latecnologaclsterpermitealasorganizacionesincrementarsucapacidaddeprocesamientousando
tecnologaestndartantoencomponentesdehardwarecomodesoftwarequepuedenadquirirseauncosto
relativamentebajo.
4.4.3Programacindeclster
Estosclsterestndiseadosyoptimizadosparacorrerprogramasparalelos.Enestecaso,losprogramas
tienenqueserhechosespecficamenteparafuncionarenformaparalela.Tpicamenteestosprogramasson
modelosquerequierenrealizargrancantidaddeclculosnumricos.Laventajadeprogramarlosdeesta
maneraycorrerlosenunclsteresquesereducedrsticamentelostiemposdeproceso.Enelcasode
modelosmeteorolgicosusadosparapredecireltiempoesobvialanecesidaddecorrerlosentiempomnimo.
Cuandoseprogramaunmodeloenunaplataformamultiprocesadoresesnecesariousaresquemasde
programacinparalela.Lasbibliotecassonlasquepermitenparalelizaciondetareas.Enelcasodelosclster
SCALI,portarprogramashechosconbibliotecasMPIesdirectograciasalusodebibliotecaSCAMPI
4.4.4Consideracionessobrerendimientodelosclster
Paradisear,implementar,probarymantenerunclsterserequiereunentendimientobsicoperoclarode
hardwaredecomputadoras,deredesdecomputadorasydesistemasoperativosylahabilidadparainvestigar
algunostpicosespecializados,comodispositivosdeinterconexinde
Altavelocidad,talvezreintroducirsealenguajesdeprogramacincomoFORTRANylibrerasparael
desarrollodeaplicacionescomoMPI.Unavezescogidounsistemaoperativo,dgaseLinux,serequierealgo
deexperienciaenlaadministracindesistemasLinuxyenlaformaderealizarconexionesdered.
Demaneralgica,cadanododelxclstertieneunapartedehardwareyotradesoftware.Elhardwareest
compuestoporprocesadores,memoria,interfazderedydiscosdurosentreotros.Encuantoalsoftware,el
nivelbajocorrespondealsistemaoperativo,elmedioconsisteenlaslibrerasdeparalelizacionyelaltoest
representadoporlaaplicacinquesedeseaejecutarenelclster
4.5Casosdeestudio
1.NVIDIA
PYSICSLAYER:
GPUPhysX
CPUPhysX
GraphicsLayer:
GPUDirectX
Windows
2.INTEL
PYSICSLAYER:
NoGPUPhysX
CPUHavok
GraphicsLayer:
GPUDirectX
Windows

3.AMD
PYSICSLAYER:
NoGPUPhysX
CPUHavok
GraphicsLayer:
GPUDirectX
Windows
Conclusin
Enconclusinfinalestosprocesamientosseutilizanparaprincipalmenteparaprocesardatosdeformaqueun
computadorpuedaejecutarvariastareasoprocesossimultneamenteyhacerqueelprocesadortengamenos
tiempodeejecucin.
Elprocesamientoparalelopermiterealizarvariastareasalavezascomoelahorrodetiempoenejecucin,es
importantedestacarquenotodaslasinstruccionespuedenejecutarsealavezpuesalserdependientesde
otras,tienenqueesperaraquesupredecesoraserealiceyaspoderejecutarse.Tambinquehayunlmitede
operacionesquepuedenrealizarsedemanerasimultnea,peroconelavancetecnolgico;elaumentoenlas
capacidadesdelosCPU,memoriaydems,estelmitecrece.

Bibliografa
1.http://www.mundodescargas.com/apuntestrabajos/informatica/decargar_arquitecturasavanzadas.pdf
2.http://es.wikipedia.org/wiki/Computaci%C3%B3n_paralela#Taxonom.C3.ADa_de_Flynn
3.http://informatica.uv.es/iiguia/ALP/materiales/1_1_a_ComputacionParalela.pdf
4.http://www.fdi.ucm.es/profesor/jjruz/ECIS/Temas/Tema%2010.pdf
5.http://share.pdfonline.com/dbda13e01a0f4dfe82082011a5c8098e/Desarrollo%20de%20la%20Unidad
%204.htm
6.http://sistemasdistribuidos.wikispaces.com/1.1+Arquitecturas+paralelas.

You might also like