V̲i̲s̲t̲a̲s̲t̲e̲r̲
Искусственный Интеллект
(265313)
1 месяц назад
хм.. ты даже не пытаешься использовать процессорный пул и... много операций сброса на диск.. Ладно.
Можно так:
— Фильтруешь крупное файло и с помощью пакетной функции в Wondershare PDFelement сжимаешь в другую папку (обычно получается двухкратное сжатие легко)
— Сжатую папку снова фильтруешь на остатки и списком загружаешь в PDF Shaper Ultimate(есть ком. строка) и делишь на мелкие части, к примеру по 100 стр.
Остается склепать автоматизацию этих приложений. Но они работают в разы быстрее Python, несмотря на то, что ты применяешь pdf-библу.
ну и говнокод тоже надо допилить..хотя это может уже и не потребоваться после первого этапа сжатия.. Хотя я бы всю эту бороду переписал на C++, это для него задача
Я написал функцию, которая с этим справляется (просьба строго не судить) Но проблема в том что эта функция работает оооочень долго для pdf у которых более 100 страниц. А мне требуется обработать сотни тысяч документов
Как еще можно реализовать такой алгоритм чтобы ускорить процесс?