Les processus enfants générés via multiprocessing partagent-ils les objets créés plus tôt dans le programme?
J'ai la configuration suivante:
do_some_processing(filename):
for line in file(filename):
if line.split(',')[0] in big_lookup_object:
# something here
if __== '__main__':
big_lookup_object = marshal.load('file.bin')
pool = Pool(processes=4)
print pool.map(do_some_processing, glob.glob('*.data'))
Je charge un gros objet en mémoire, puis je crée un pool de travailleurs qui doivent utiliser ce gros objet. Le gros objet est accessible en lecture seule, je n'ai pas besoin de passer de modifications entre les processus.
Ma question est la suivante: le gros objet est-il chargé dans la mémoire partagée, comme ce serait le cas si j'avais généré un processus sous unix/c, ou chaque processus charge-t-il sa propre copie du grand objet?
Mise à jour: pour clarifier davantage - big_lookup_object est un objet de recherche partagé. Je n'ai pas besoin de diviser cela et de le traiter séparément. Je dois en garder une seule copie. Le travail dont j'ai besoin pour le diviser consiste à lire de nombreux autres gros fichiers et à rechercher les éléments de ces gros fichiers par rapport à l'objet de recherche.
Mise à jour supplémentaire: la base de données est une bonne solution, memcached peut être une meilleure solution et les fichiers sur disque (Shelve ou DBM) peuvent être encore meilleurs. Dans cette question, j'étais particulièrement intéressé par une solution en mémoire. Pour la solution finale, j'utiliserai hadoop, mais je voulais voir si je pouvais également avoir une version locale en mémoire.
"Les processus enfants générés via des objets de partage multiprocesseurs créés plus tôt dans le programme?"
Non.
Les processus ont un espace mémoire indépendant.
Solution 1
Pour utiliser au mieux une grande structure avec beaucoup de travailleurs, procédez comme suit.
Écrivez chaque travailleur comme un "filtre" - lit les résultats intermédiaires de stdin, fonctionne, écrit les résultats intermédiaires sur stdout.
Connectez tous les travailleurs en tant que pipeline:
process1 <source | process2 | process3 | ... | processn >result
Chaque processus lit, fonctionne et écrit.
Ceci est remarquablement efficace car tous les processus s'exécutent simultanément. Les écritures et les lectures passent directement par des tampons partagés entre les processus.
Solution 2
Dans certains cas, vous avez une structure plus complexe - souvent une structure "fan-out". Dans ce cas, vous avez un parent avec plusieurs enfants.
Le parent ouvre les données source. Le parent fourche un certain nombre d'enfants.
Le parent lit la source, ferme des parties de la source à chaque enfant s'exécutant simultanément.
Lorsque le parent atteint la fin, fermez le tuyau. L'enfant obtient la fin du fichier et se termine normalement.
Les parties enfant sont agréables à écrire car chaque enfant lit simplement sys.stdin
.
Le parent a un peu de jeu de jambes pour engendrer tous les enfants et retenir correctement les tuyaux, mais ce n'est pas trop mal.
Fan-in est la structure opposée. Un certain nombre de processus fonctionnant indépendamment doivent entrelacer leurs entrées dans un processus commun. Le collecteur n'est pas aussi facile à écrire, car il doit lire à partir de nombreuses sources.
La lecture de nombreux canaux nommés est souvent effectuée à l'aide du module select
pour voir quels canaux ont une entrée en attente.
Solution 3
La recherche partagée est la définition d'une base de données.
Solution 3A - chargez une base de données. Laissez les travailleurs traiter les données dans la base de données.
Solution 3B - créez un serveur très simple en utilisant werkzeug (ou similaire) pour fournir des applications WSGI qui répondent à HTTP GET afin que les travailleurs puissent interroger le serveur.
Solution 4
Objet de système de fichiers partagé. Unix OS propose des objets de mémoire partagée. Ce ne sont que des fichiers qui sont mappés en mémoire afin que l'échange d'E/S soit effectué à la place de lectures plus tamponnées par convention.
Vous pouvez le faire à partir d'un contexte Python de plusieurs manières
Écrivez un programme de démarrage qui (1) divise votre objet gigantesque d'origine en objets plus petits, et (2) démarre les ouvriers, chacun avec un objet plus petit. Les petits objets pourraient être décapés Python objets pour économiser un tout petit peu de temps de lecture de fichier.
Écrivez un programme de démarrage qui (1) lit votre objet gigantesque d'origine et écrit un fichier structuré en page, codé en octets à l'aide d'opérations seek
pour garantir que les sections individuelles sont faciles à trouver avec de simples recherches. C'est ce que fait un moteur de base de données - diviser les données en pages, rendre chaque page facile à localiser via un seek
.
Générez des travailleurs avec accès à ce grand fichier structuré en page. Chaque travailleur peut chercher les pièces pertinentes et y faire son travail.
Ça dépend. Pour les variables globales en lecture seule, il peut souvent être considéré comme tel (en dehors de la mémoire consommée), sinon il ne devrait pas l'être.
La documentation de multiprocessing dit:
Better to inherit than pickle/unpickle
Sous Windows, de nombreux types de multiprocessing doivent être récupérables pour que les processus enfants puissent les utiliser. Cependant, il faut généralement éviter d'envoyer des objets partagés à d'autres processus à l'aide de canaux ou de files d'attente. Au lieu de cela, vous devez organiser le programme afin qu'un processus qui a besoin d'accéder à une ressource partagée créée ailleurs puisse l'hériter d'un processus ancêtre.
Explicitly pass resources to child processes
Sous Unix, un processus enfant peut utiliser une ressource partagée créée dans un processus parent à l'aide d'une ressource globale. Cependant, il est préférable de passer l'objet comme argument au constructeur du processus enfant.
En plus de rendre le code (potentiellement) compatible avec Windows, cela garantit également que tant que le processus enfant est toujours en vie, l'objet ne sera pas récupéré dans le processus parent. Cela peut être important si une ressource est libérée lorsque l'objet est récupéré dans le processus parent.
Global variables
Gardez à l'esprit que si le code exécuté dans un processus enfant essaie d'accéder à une variable globale, la valeur qu'il voit (le cas échéant) peut ne pas être la même que la valeur dans le processus parent au moment où Process.start () a été appelé .
Sous Windows (CPU unique):
#!/usr/bin/env python
import os, sys, time
from multiprocessing import Pool
x = 23000 # replace `23` due to small integers share representation
z = [] # integers are immutable, let's try mutable object
def printx(y):
global x
if y == 3:
x = -x
z.append(y)
print os.getpid(), x, id(x), z, id(z)
print y
if len(sys.argv) == 2 and sys.argv[1] == "sleep":
time.sleep(.1) # should make more apparant the effect
if __== '__main__':
pool = Pool(processes=4)
pool.map(printx, (1,2,3,4))
Avec sleep
:
$ python26 test_share.py sleep
2504 23000 11639492 [1] 10774408
1
2564 23000 11639492 [2] 10774408
2
2504 -23000 11639384 [1, 3] 10774408
3
4084 23000 11639492 [4] 10774408
4
Sans sleep
:
$ python26 test_share.py
1148 23000 11639492 [1] 10774408
1
1148 23000 11639492 [1, 2] 10774408
2
1148 -23000 11639324 [1, 2, 3] 10774408
3
1148 -23000 11639324 [1, 2, 3, 4] 10774408
4
S.Lott est correct. Les raccourcis multiprocesseurs de Python vous fournissent efficacement une partie de mémoire séparée et dupliquée.
Sur la plupart des systèmes * nix, l'utilisation d'un appel de niveau inférieur à os.fork()
vous donnera en fait une mémoire de copie sur écriture, ce qui pourrait être ce que vous pensez. AFAIK, en théorie, dans le programme le plus simpliste possible, vous pouvez lire ces données sans les dupliquer.
Cependant, les choses ne sont pas aussi simples que cela dans l'interpréteur Python. Les données d'objet et les métadonnées sont stockées dans le même segment de mémoire, donc même si l'objet ne change jamais, quelque chose comme un compteur de référence pour cet objet incrémenté provoquera une écriture en mémoire, et donc une copie. Presque tout programme Python qui fait plus que "print 'hello" "provoquera des incréments de comptage de référence, donc vous aurez probablement ne réalisez jamais les avantages de la copie sur écriture.
Même si quelqu'un réussissait à pirater une solution de mémoire partagée en Python, essayer de coordonner la collecte des ordures entre les processus serait probablement assez pénible.
Si vous exécutez sous Unix, ils peuvent partager le même objet, en raison de comment fork fonctionne (c.-à-d., Les processus enfants ont une mémoire distincte mais c'est copie sur écriture, donc il peut être partagé comme tant que personne ne le modifie). J'ai essayé ce qui suit:
import multiprocessing
x = 23
def printx(y):
print x, id(x)
print y
if __== '__main__':
pool = multiprocessing.Pool(processes=4)
pool.map(printx, (1,2,3,4))
et a obtenu la sortie suivante:
. 23 22995656 4
Bien sûr, cela ne prouve pas qu'une copie n'a pas été faite, mais vous devriez pouvoir vérifier cela dans votre situation en regardant la sortie de ps
pour voir combien de mémoire réelle chaque sous-processus utilise.
Différents processus ont un espace d'adressage différent. Comme exécuter différentes instances de l'interpréteur. C'est à cela que sert IPC (communication interprocessus).
Vous pouvez utiliser des files d'attente ou des canaux à cet effet. Vous pouvez également utiliser rpc sur tcp si vous souhaitez distribuer les processus sur un réseau ultérieurement.
http://docs.python.org/dev/library/multiprocessing.html#exchanging-objects-between-processes
Non, mais vous pouvez charger vos données en tant que processus enfant et lui permettre de partager ses données avec d'autres enfants. voir ci-dessous.
import time
import multiprocessing
def load_data( queue_load, n_processes )
... load data here into some_variable
"""
Store multiple copies of the data into
the data queue. There needs to be enough
copies available for each process to access.
"""
for i in range(n_processes):
queue_load.put(some_variable)
def work_with_data( queue_data, queue_load ):
# Wait for load_data() to complete
while queue_load.empty():
time.sleep(1)
some_variable = queue_load.get()
"""
! Tuples can also be used here
if you have multiple data files
you wish to keep seperate.
a,b = queue_load.get()
"""
... do some stuff, resulting in new_data
# store it in the queue
queue_data.put(new_data)
def start_multiprocess():
n_processes = 5
processes = []
stored_data = []
# Create two Queues
queue_load = multiprocessing.Queue()
queue_data = multiprocessing.Queue()
for i in range(n_processes):
if i == 0:
# Your big data file will be loaded here...
p = multiprocessing.Process(target = load_data,
args=(queue_load, n_processes))
processes.append(p)
p.start()
# ... and then it will be used here with each process
p = multiprocessing.Process(target = work_with_data,
args=(queue_data, queue_load))
processes.append(p)
p.start()
for i in range(n_processes)
new_data = queue_data.get()
stored_data.append(new_data)
for p in processes:
p.join()
print(processes)
Pas directement lié au multitraitement en soi, mais d'après votre exemple, il semblerait que vous puissiez simplement utiliser le module shelve ou quelque chose comme ça. Le "big_lookup_object" doit-il vraiment être complètement en mémoire?