Для тех, кто хочет знать, как я сделал обходной путь менее сложным, я написал скрипт на python для автоматического мониторинга локального каталога, в который экспортируется Lightroom Classic, и перемещения всех файлов (кроме самого последнего, который, возможно, все еще пишется)) к сетевому диску при экспорте.Это позволяет мне выполнять гигантский, неконтролируемый экспорт.
Этот сценарий выполняется в каталоге, в который экспортируются файлы, и файлы перемещаются в смонтированный каталог, который находится по адресу "/ Users / me/ gcs-buckets / my-bucket "
#!/usr/bin/env python
import os
import sys
import shutil
import time
def main():
while True:
files = os.listdir(".")
files = filter(lambda fn: len(os.path.splitext(fn)) == 2 and os.path.splitext(fn)[1] == '.jpg', files)
# files are of the format "jmt2019_part1-476.jpg", parse into
# (476, "jmt2019_part1-476.jpg") so we can sort by the integer
file_pairs = [(int(os.path.splitext(f)[0].split("-")[1]), f) for f in files]
file_pairs = sorted(file_pairs, key=lambda t: t[0])
#print file_pairs
for _, f in file_pairs[:-1]:
# for all but the most recent file as it's likely being written still
new_path = os.path.join("/Users/me/gcs-buckets/my-bucket", f)
print "moving file", f, "to new path at", new_path
before = time.time()
shutil.move(f, new_path)
after = time.time() - before
print "moved file", f, "to remote storage in", after, "seconds!"
print "waiting 10 seconds!"
time.sleep(10)
if __name__ == '__main__':
sys.exit(not main())