Данная переменная активирует режим отложенной загрузки ненужных модулей CUDA. Направлено на экономию видеопамяти.set NUMEXPR_MAX_THREADS=16На что это влияет, и на что ориентироваться, выставляя значение? Или не задавать лишних вопросов, ставить, шо дают?
set PYTORCH_CUDA_ALLOC_CONF=garbage_collection_threshold:0.9,max_split_size_mb:512Тоже непонятна зависимость. Больше лучше? Или меньше лучше? Наверное от количества виртуальной памяти как-то плясать?
Если я отвечу что первая переменная отвечает за то, сколько потоков может использовать библиотека numpy, станет понятнее?
Про вторую я же написал: Запрещает torch разбивать блоки, превышающие этот размер (в МБ). Это может помочь предотвратить фрагментацию и может позволить выполнять некоторые пограничные рабочие нагрузки без нехватки памяти.
Если есть желание можно поиграться с ним, но в целом это стандартное и оптимальное значение, используемое большинством пользователей.
Данная переменная активирует режим отложенной загрузки ненужных модулей CUDA. Направлено на экономию видеопамяти.set NUMEXPR_MAX_THREADS=16На что это влияет, и на что ориентироваться, выставляя значение? Или не задавать лишних вопросов, ставить, шо дают?
set PYTORCH_CUDA_ALLOC_CONF=garbage_collection_threshold:0.9,max_split_size_mb:512Тоже непонятна зависимость. Больше лучше? Или меньше лучше? Наверное от количества виртуальной памяти как-то плясать?
Если я отвечу что первая переменная отвечает за то, сколько потоков может использовать библиотека numpy, станет понятнее?
Про вторую я же написал:
Запрещает torch разбивать блоки, превышающие этот размер (в МБ). Это может помочь предотвратить фрагментацию и может позволить выполнять некоторые пограничные рабочие нагрузки без нехватки памяти.
Если есть желание можно поиграться с ним, но в целом это стандартное и оптимальное значение, используемое большинством пользователей.