用于子集总和等于或接近给定比率的随机分区的快速 Python 算法

这个问题是我之前问题的延伸:Fast python algorithm to find all possible partitions from a list of numbers that has subset sums equal to a ratio 。我想划分一个数字列表,以便子集总和的比率等于给定值。不同之处在于我现在有一长串 200 个数字,因此枚举是不可行的。请注意,虽然列表中当然有相同的数字,但每个数字都是可区分的。

import random
lst = [random.randrange(10) for _ in range(200)]

在这种情况下,我想要一个函数来随机采样一定数量的分区,其子集总和等于或接近给定的比率。这意味着解决方案可能是次优的,但我需要算法足够快。我猜贪心算法会做。话虽如此,当然如果有一个相对较快的算法能够给出最优解就更好了。

例如,我想对 100 个分区进行采样,所有分区的子集总和比率为 4 : 3 : 3。允许重复分区,但对于这么长的列表应该不太可能。该函数应该像这样使用:

partitions = func(numbers=lst,ratios=[4,3,3],num_gen=100)

要测试解决方案,您可以执行以下操作:

from math import isclose
eps = 0.05
assert all([isclose(ratios[i] / sum(ratios),sum(x) / sum(lst),abs_tol=eps) 
            for part in partitions for i,x in enumerate(part)])

有什么建议吗?

zerosos 回答:用于子集总和等于或接近给定比率的随机分区的快速 Python 算法

您可以使用贪婪启发式方法,从列表的 num_gen 随机排列生成每个分区。每个随机排列被划分为 len(ratios) 个连续的子列表。分区子集是排列的子列表这一事实使得在子列表生成期间执行比率条件非常容易:一旦我们当前正在构建的子列表的总和达到比率之一,我们就“完成”子列表,添加它到分区并开始创建一个新的子列表。我们可以一次性完成整个排列,从而为我们提供以下时间复杂度 O(num_gen * len(lst)) 的算法。

M = 100

N = len(lst)
P = len(ratios)
R = sum(ratios)
S = sum(lst)

for _ in range(M):
    # get a new random permutation
    random.shuffle(lst)
    
    partition = []
    
    # starting index (in the permutation) of the current sublist
    lo = 0
    # permutation partial sum
    s = 0
    # index of sublist we are currently generating (i.e. what ratio we are on)
    j = 0
    # ratio partial sum
    rs = ratios[j]
    
    for i in range(N):
        s += lst[i]
        
        # if ratio of permutation partial sum exceeds ratio of ratio partial sum,# the current sublist is "complete"
        if s / S >= rs / R:
            partition.append(lst[lo:i + 1])
            # start creating new sublist from next element
            lo = i + 1
            j += 1
            if j == P:
                # done with partition
                # remaining elements will always all be zeroes 
                # (i.e. assert should never fail)
                assert all(x == 0 for x in lst[i+1:])
                partition[-1].extend(lst[i+1:])
                break
            rs += ratios[j]

请注意,可以重新设计外循环以无限循环,直到生成 num_gen 个好的分区(而不仅仅是循环 num_gen 次)以获得更高的稳健性。如果良好分区的数量与该算法的分区总数相比不是太小,则该算法预计会在 M 次迭代中产生 O(M) 个良好的分区(假设 random.shuffle 足够随机)相同的大小,因此对于大多数输入它应该表现良好。对于像 [random.randrange(10) for _ in range(200)] 这样的(几乎)均匀随机列表,每次 迭代都会产生一个带有 eps = 0.05 的良好分区,通过运行下面的示例可以明显看出。当然,算法的表现如何还取决于“好”的定义——紧密度要求越严格(换句话说,epsilon 越小),找到一个好的分区所需的迭代次数就越多。此实现可以在 here 中找到,并且适用于任何输入(假设 random.shuffle 最终生成输入列表的 all 排列)。

您可以找到代码的可运行版本(带有断言来测试分区的“好”程度)here

本文链接:https://www.f2er.com/268938.html

大家都在问