Чтение файла построчно - упр памяти и производительности
Я пытаюсь выяснить, как лучше всего читать большой текстовый файл (>5GB) строка за строкой в Python. Каждая строка также будет обрабатываться последовательно (например, нарезка строки и нажатие ее на какую-то функцию).
Мне интересно, можно ли это сделать с помощью параллельных потоков / многопоточности в Python, чтобы заставить его работать быстрее?? Кроме того, я хотел бы свести к минимуму объем памяти, так как есть и другие запущенные процессы.
Любая помощь или толчок в правильном направлении очень ценятся.
Что я уже пробовал:
python readline, readlines и streaming