ISBN-13: 9786131504723 / Francuski / Miękka / 2018 / 108 str.
Cette thA]se introduit deux outils pour l'accA]s performant aux donnA(c)es d'un algorithme A front d'onde dans un contexte d'exA(c)cution out-of-core. Ces algorithmes sont facilement parallA(c)lisables en utilisant des techniques de macro-pipelining, qui permettent un recouvrement des calculs et des communications. Le premier outil part du constat que les performances des opA(c)rations de lecture/A(c)criture dans une telle situation sont dA(c)sastreuses: les donnA(c)es sont A(c)clatA(c)es sur disque et leur rapatriement en mA(c)moire est long et coAteux. Le nouvel agencement de donnA(c)es sur disque proposA(c) permet de rA(c)soudre ces problA]mes en accA(c)dant aux donnA(c)es uniquement de maniA]re contiguA. Si ce premier outil dA(c)crit comment accA(c)der aux donnA(c)es, le deuxiA]me est un modA]le de synchronisation qui dA(c)crit quand y accA(c)der. En effet, l'exA(c)cution parallA]le et concurrente des algorithmes A front d'onde nA(c)cessite un contrAle strict des temps d'accA]s et des temps d'attente. Le modA]le prA(c)sentA(c) dans cette thA]se remplit ce rAle, tout en donnant des garanties de propriA(c)tA(c)s intA(c)ressantes pour les applications itA(c)ratives: verrouillage pro-actif, A(c)volution sans interblocages, progression homogA]ne des tA ches.
Cette thèse introduit deux outils pour laccès performant aux données dun algorithme à front donde dans un contexte dexécution out-of-core. Ces algorithmes sont facilement parallélisables en utilisant des techniques de macro-pipelining, qui permettent un recouvrement des calculs et des communications. Le premier outil part du constat que les performances des opérations de lecture/écriture dans une telle situation sont désastreuses: les données sont éclatées sur disque et leur rapatriement en mémoire est long et coûteux. Le nouvel agencement de données sur disque proposé permet de résoudre ces problèmes en accédant aux données uniquement de manière contiguë. Si ce premier outil décrit comment accéder aux données, le deuxième est un modèle de synchronisation qui décrit quand y accéder. En effet, lexécution parallèle et concurrente des algorithmes à front donde nécessite un contrôle strict des temps daccès et des temps dattente. Le modèle présenté dans cette thèse remplit ce rôle, tout en donnant des garanties de propriétés intéressantes pour les applications itératives : verrouillage pro-actif, évolution sans interblocages, progression homogène des tâches.