模擬退火演算法Python程式設計(3)整數規劃問題

youcans發表於2021-05-02

1、整數規劃問題

   整數規劃問題在工業、經濟、國防、醫療等各行各業應用十分廣泛,是指規劃中的變數(全部或部分)限制為整數,屬於離散優化問題(Discrete Optimization)。
   線性規劃問題的最優解可能是分數或小數。但很多實際問題常常要求某些變數必須是整數解,例如:機器的臺數、工作的人數或裝貨的車數。根據對決策變數的不同要求,整數規劃又可以分為:純整數規劃、混合整數規劃、0-1整數規劃、混合0-1規劃。
   整數規劃與線性規劃的差別只在於增加了整數約束。初看起來似乎只要把線性規劃得到的非整數解舍入化整就可以得到整數解,但是這樣化整後的整數解不一定是最優解,甚至可能不是可行解。因此,通常需要採用特殊的方法來求解整數規劃,這比求解線性規劃問題複雜的多,以至於至今還沒有一般的多項式解法。因此,整數規劃問題被看作數學規劃中、甚至是數學中最困難的問題之一。
   求解整數規劃比較成功又流行的方法是分支定界法和割平面法。核心思想是把整數規劃問題分解為一系列線性規劃問題,並追蹤整數規劃問題的上界(最優可行解)和下界(最優線性鬆弛解),逐步迭代收斂到最優解。由於精確演算法為指數複雜度,因此在有限時間內也不能獲得全域性最優解,只能獲得近似最優解。
   目前整數規劃問題的優化求解器主要有:IBM Cplex,Gurobi,FICO Xpress,SCIP,2018年中科院釋出了CMIP混合整數規劃求解器。使用 Lingo 可以求解整數規劃問題,使用 Matlab 也可以用intlinprog 函式求解整數規劃問題,實際上都是使用軟體中內建的求解器。Python 也可以使用第三方庫求解整數規劃問題,例如 Cvxpy、PuLp 都可以求解整數規劃問題,Cplex、Gurobi也有自己的python API。  

2、模擬退火演算法處理整數約束

  由於整數規劃問題在有限時間內不能獲得全域性最優解,啟發式演算法就有了用武之地。下面我們討論模擬退火演算法處理整數約束,求解整數規劃問題。
  上一篇文章中我們討論模擬退火演算法處理線性規劃的約束條件時,方法比其它常用演算法複雜的多。但是,模擬退火演算法在處理整數約束時,方法卻極其簡單:
  對於決策變數為連續變數的一般優化問題,基本的模擬退火演算法在決策變數的取值範圍隨機產生初始解,新解則是在現有解的鄰域施加擾動產生,演算法上通過均勻分佈或正態分佈的隨機數來實現:

xInitial = random.uniform(xMin, xMax)
# random.uniform(min,max) 在 [min,max] 範圍內隨機生成一個實數

xNew = xNow + scale * (xMax-xMin) * random.normalvariate(0, 1)
# random.normalvariate(0, 1):產生服從均值為0、標準差為 1 的正態分佈隨機實數
xNew = max(min(xNew, xMax), xMin) # 保證新解在 [min,max] 範圍內

  對於整數規劃問題,只要將產生初值/新解的隨機實數發生器 random.uniform、random.normalvariate 改為隨機整數發生器 random.randint即可:

xInitial = random.randint(xMin, xMax)
# random.randint(xMin, xMax) 產生 [min,max]之間的隨機整數

  由於模擬退火演算法與問題無關(Problem-independent),所以通常來說這樣處理並不會影響演算法的效能:既不會引起不可行解,也不用擔心得不到最優解——近似演算法只能得到近似最優解的,而且可以得到近似最優解。
  既然如此,更簡單的處理方法,連隨機整數發生器都不需要,直接把線性規劃得到的非整數解舍入化整就可以了:
  

xNew = round(xNow + scale * (xMax-xMin) * random.normalvariate(0, 1))
# random.normalvariate(0, 1):產生服從均值為0、標準差為 1 的正態分佈隨機實數
xNew = max(min(xNew, xMax), xMin) # 保證新解在 [min,max] 範圍內

  這樣處理的好處是:(1)簡單、直接,(2)便於實現所需的概率分佈。

3、數模案例

  為了便於理解,本文仍使用之前的案例。

3.1 問題描述:

  某廠生產甲乙兩種飲料,每百箱甲飲料需用原料6千克、工人10名,獲利10萬元;每百箱乙飲料需用原料5千克、工人20名,獲利9萬元。
  今工廠共有原料60千克、工人150名,又由於其他條件所限甲飲料產量不超過8百箱。
  (5)若不允許散箱(按整百箱生產),如何安排生產計劃,即兩種飲料各生產多少使獲利最大?

3.2 問題分析:

  問題(5)要求按整百箱生產,即要求決策變數為整數,是整數規劃問題。
  對於模擬退火演算法,基本演算法中的初值/新解都是隨機生成的浮點實數(均勻分佈或正態分佈)。對於整數規劃問題,只要將產生初值/新解的隨機實數發生器改為隨機整數發生器即可,或者把線性規劃得到的非整數解舍入化整。
  

3.3 問題建模:

  決策變數:
    x1:甲飲料產量,正整數(單位:百箱)
    x2:乙飲料產量,正整數(單位:百箱)
  目標函式:
    max fx = 10x1 + 9x2
  約束條件:
    6x1 + 5x2 <= 60
    10x1 + 20x2 <= 150
  取值範圍:
    給定條件:x1, x2 >= 0,x1 <= 8
    推導條件:由 x1,x2>=0 和 10*x1+20*x2<=150 可知:0<=x1<=15;0<=x2<=7.5
    因此,0 <= x1<=8,0 <= x2<=7.5

3.4 懲罰函式法求解約束優化問題:

  構造懲罰函式:
    p1 = (max(0, 6*x1+5*x2-60))**2
    p2 = (max(0, 10*x1+20*x2-150))**2
  說明:如存在等式約束,例如:x1 + 2*x2 = m,也可以轉化為懲罰函式:
    p3 = (x1+2*x2-m)**2
    P(x) = p1 + p2 + ...
  構造增廣目標函式:
    L(x,m(k)) = min(fx) + m(k)*P(x)
    m(k):懲罰因子,隨迭代次數 k 逐漸增大

  在模擬退火演算法中,m(k) 隨外迴圈迭代次數逐漸增大,但在內迴圈中應保持不變。

4、模擬退火演算法 Python 程式:求解整數規劃問題

# 模擬退火演算法 程式:求解線性規劃問題(整數規劃)
# Program: SimulatedAnnealing_v4.py
# Purpose: Simulated annealing algorithm for function optimization
# v4.0: 整數規劃:滿足決策變數的取值為整數(初值和新解都是隨機生成的整數)
# Copyright 2021 YouCans, XUPT
# Crated:2021-05-01

#  -*- coding: utf-8 -*-
import math                         # 匯入模組
import random                       # 匯入模組
import pandas as pd                 # 匯入模組 YouCans, XUPT
import numpy as np                  # 匯入模組 numpy,並簡寫成 np
import matplotlib.pyplot as plt     
from datetime import datetime


# 子程式:定義優化問題的目標函式
def cal_Energy(X, nVar, mk): 	# m(k):懲罰因子,隨迭代次數 k 逐漸增大
    p1 = (max(0, 6*X[0]+5*X[1]-60))**2
    p2 = (max(0, 10*X[0]+20*X[1]-150))**2
    fx = -(10*X[0]+9*X[1])
    return fx+mk*(p1+p2)


# 子程式:模擬退火演算法的引數設定
def ParameterSetting():
    cName = "funcOpt"           # 定義問題名稱 YouCans, XUPT
    nVar = 2                    # 給定自變數數量,y=f(x1,..xn)
    xMin = [0, 0]               # 給定搜尋空間的下限,x1_min,..xn_min
    xMax = [8, 8]               # 給定搜尋空間的上限,x1_max,..xn_max

    tInitial = 100.0            # 設定初始退火溫度(initial temperature)
    tFinal  = 1                 # 設定終止退火溫度(stop temperature)
    alfa    = 0.98              # 設定降溫引數,T(k)=alfa*T(k-1)
    meanMarkov = 100            # Markov鏈長度,也即內迴圈執行次數
    scale   = 0.5               # 定義搜尋步長,可以設為固定值或逐漸縮小
    return cName, nVar, xMin, xMax, tInitial, tFinal, alfa, meanMarkov, scale


# 模擬退火演算法
def OptimizationSSA(nVar,xMin,xMax,tInitial,tFinal,alfa,meanMarkov,scale):
    # ====== 初始化隨機數發生器 ======
    randseed = random.randint(1, 100)
    random.seed(randseed)  # 隨機數發生器設定種子,也可以設為指定整數

    # ====== 隨機產生優化問題的初始解 ======
    xInitial = np.zeros((nVar))   # 初始化,建立陣列
    for v in range(nVar):
        # xInitial[v] = random.uniform(xMin[v], xMax[v]) # 產生 [xMin, xMax] 範圍的隨機實數
        xInitial[v] = random.randint(xMin[v], xMax[v]) # 產生 [xMin, xMax] 範圍的隨機整數
    # 呼叫子函式 cal_Energy 計算當前解的目標函式值
    fxInitial = cal_Energy(xInitial, nVar, 1) # m(k):懲罰因子,初值為 1

    # ====== 模擬退火演算法初始化 ======
    xNew = np.zeros((nVar))         # 初始化,建立陣列
    xNow = np.zeros((nVar))         # 初始化,建立陣列
    xBest = np.zeros((nVar))        # 初始化,建立陣列
    xNow[:]  = xInitial[:]          # 初始化當前解,將初始解置為當前解
    xBest[:] = xInitial[:]          # 初始化最優解,將當前解置為最優解
    fxNow  = fxInitial              # 將初始解的目標函式置為當前值
    fxBest = fxInitial              # 將當前解的目標函式置為最優值
    print('x_Initial:{:.6f},{:.6f},\tf(x_Initial):{:.6f}'.format(xInitial[0], xInitial[1], fxInitial))

    recordIter = []                 # 初始化,外迴圈次數
    recordFxNow = []                # 初始化,當前解的目標函式值
    recordFxBest = []               # 初始化,最佳解的目標函式值
    recordPBad = []                 # 初始化,劣質解的接受概率
    kIter = 0                       # 外迴圈迭代次數,溫度狀態數
    totalMar = 0                    # 總計 Markov 鏈長度
    totalImprove = 0                # fxBest 改善次數
    nMarkov = meanMarkov            # 固定長度 Markov鏈

    # ====== 開始模擬退火優化 ======
    # 外迴圈,直到當前溫度達到終止溫度時結束
    tNow = tInitial                 # 初始化當前溫度(current temperature)
    while tNow >= tFinal:           # 外迴圈,直到當前溫度達到終止溫度時結束
        # 在當前溫度下,進行充分次數(nMarkov)的狀態轉移以達到熱平衡
        kBetter = 0                 # 獲得優質解的次數
        kBadAccept = 0              # 接受劣質解的次數
        kBadRefuse = 0              # 拒絕劣質解的次數

        # ---內迴圈,迴圈次數為Markov鏈長度
        for k in range(nMarkov):    # 內迴圈,迴圈次數為Markov鏈長度
            totalMar += 1           # 總 Markov鏈長度計數器

            # ---產生新解
            # 產生新解:通過在當前解附近隨機擾動而產生新解,新解必須在 [min,max] 範圍內
            # 方案 1:只對 n元變數中的一個進行擾動,其它 n-1個變數保持不變
            xNew[:] = xNow[:]
            v = random.randint(0, nVar-1)   # 產生 [0,nVar-1]之間的隨機數
            xNew[v] = round(xNow[v] + scale * (xMax[v]-xMin[v]) * random.normalvariate(0, 1))
            # 滿足決策變數為整數,採用最簡單的方案:產生的新解按照四捨五入取整
            xNew[v] = max(min(xNew[v], xMax[v]), xMin[v])  # 保證新解在 [min,max] 範圍內

            # ---計算目標函式和能量差
            # 呼叫子函式 cal_Energy 計算新解的目標函式值
            fxNew = cal_Energy(xNew, nVar, kIter)
            deltaE = fxNew - fxNow

            # ---按 Metropolis 準則接受新解
            # 接受判別:按照 Metropolis 準則決定是否接受新解
            if fxNew < fxNow:  # 更優解:如果新解的目標函式好於當前解,則接受新解
                accept = True
                kBetter += 1
            else:  # 容忍解:如果新解的目標函式比當前解差,則以一定概率接受新解
                pAccept = math.exp(-deltaE / tNow)  # 計算容忍解的狀態遷移概率
                if pAccept > random.random():
                    accept = True  # 接受劣質解
                    kBadAccept += 1
                else:
                    accept = False  # 拒絕劣質解
                    kBadRefuse += 1

            # 儲存新解
            if accept == True:  # 如果接受新解,則將新解儲存為當前解
                xNow[:] = xNew[:]
                fxNow = fxNew
                if fxNew < fxBest:  # 如果新解的目標函式好於最優解,則將新解儲存為最優解
                    fxBest = fxNew
                    xBest[:] = xNew[:]
                    totalImprove += 1
                    scale = scale*0.99  # 可變搜尋步長,逐步減小搜尋範圍,提高搜尋精度
                    
        # ---內迴圈結束後的資料整理
        # 完成當前溫度的搜尋,儲存資料和輸出
        pBadAccept = kBadAccept / (kBadAccept + kBadRefuse)  # 劣質解的接受概率
        recordIter.append(kIter)  # 當前外迴圈次數
        recordFxNow.append(round(fxNow, 4))  # 當前解的目標函式值
        recordFxBest.append(round(fxBest, 4))  # 最佳解的目標函式值
        recordPBad.append(round(pBadAccept, 4))  # 最佳解的目標函式值

        if kIter%10 == 0:                           # 模運算,商的餘數
            print('i:{},t(i):{:.2f}, badAccept:{:.6f}, f(x)_best:{:.6f}'.\
                format(kIter, tNow, pBadAccept, fxBest))

        # 緩慢降溫至新的溫度,降溫曲線:T(k)=alfa*T(k-1)
        tNow = tNow * alfa
        kIter = kIter + 1
        fxBest = cal_Energy(xBest, nVar, kIter)  # 由於迭代後懲罰因子增大,需隨之重構增廣目標函式
        # ====== 結束模擬退火過程 ======

    print('improve:{:d}'.format(totalImprove))
    return kIter,xBest,fxBest,fxNow,recordIter,recordFxNow,recordFxBest,recordPBad

# 結果校驗與輸出
def ResultOutput(cName,nVar,xBest,fxBest,kIter,recordFxNow,recordFxBest,recordPBad,recordIter):
    # ====== 優化結果校驗與輸出 ======
    fxCheck = cal_Energy(xBest, nVar, kIter)
    if abs(fxBest - fxCheck)>1e-3:   # 檢驗目標函式
        print("Error 2: Wrong total millage!")
        return
    else:
        print("\nOptimization by simulated annealing algorithm:")
        for i in range(nVar):
            print('\tx[{}] = {:.1f}'.format(i,xBest[i]))
        print('\n\tf(x) = {:.1f}'.format(cal_Energy(xBest,nVar,0)))

    return


# 主程式
def main():

    # 引數設定,優化問題引數定義,模擬退火演算法引數設定
    [cName, nVar, xMin, xMax, tInitial, tFinal, alfa, meanMarkov, scale] = ParameterSetting()
    # print([nVar, xMin, xMax, tInitial, tFinal, alfa, meanMarkov, scale])

    # 模擬退火演算法    [kIter,xBest,fxBest,fxNow,recordIter,recordFxNow,recordFxBest,recordPBad] \
        = OptimizationSSA(nVar,xMin,xMax,tInitial,tFinal,alfa,meanMarkov,scale)
    # print(kIter, fxNow, fxBest, pBadAccept)

    # 結果校驗與輸出
    ResultOutput(cName, nVar,xBest,fxBest,kIter,recordFxNow,recordFxBest,recordPBad,recordIter)


if __name__ == '__main__':
    main()

6、執行結果

Optimization by simulated annealing algorithm:
    x[0] = 8.0
    x[1] = 2.0
    f(x) = -98.0

參考文獻:

(1)田澎,楊自厚,張嗣瀛,一類非線性整數規劃的模擬退火求解,1993年控制理論及其應用年會論文集,海洋出版社,1993,533-537.

版權說明:
原創作品
Copyright 2021 YouCans, XUPT
Crated:2021-05-01

相關文章