DEPS består af to uafhængige algoritmer: differentiel evolutionær og partikelsværm-optimering. Begge er specielt egnede til numeriske problemer, såsom ikke-lineær optimering, og de komplementerer hinanden på den måde, at de udligner hinandens svagheder.
Indstilling
|
Beskrivelse
|
Forekomst af agentskift
|
Angiver sandsynligheden for, at et individ vælger strategien Differentiel evolution.
|
Antag, at variabler er ikke-negative
|
Marker, for at tvinge variabler til udelukkende at være positive.
|
DE: Omskiftningssandsynlighed
|
Definerer sandsynligheden for, at individet blever kombineret med det globalt bedste punkt. Hvis der ikke bruges omskiftning, indsamles punktet fra individets egen hukommelse.
|
DE: Skaleringsfaktor
|
Under omskiftningen bestemmer skaleringsfaktoren bevægelsens "hastighed".
|
Læringscykler
|
Definerer antallet af gentagelser, algoritmen bør tage. I hver gentagelse gætter alle individer på den bedste løsning og deler deres viden.
|
PS: Kognitiv konstant
|
Fastlægger vigtigheden af egen hukommelse (i særdeleshed det indtil videre nåede bedste punkt).
|
PS: Indsnævrings-koefficient
|
Definerer den hastighed, som partiklerne/individerne nærmer sig hinanden med.
|
PS: Mutationssandsynlighed
|
Definerer sandsynligheden for, at i stedet for at flytte en komponent i partiklen mod det bedste punkt, vælger det tilfældigt en ny værdi inden for denne variabels gyldige område.
|
PS: Social konstant
|
Fastlægger vigtigheden af det globale bedste punkt blandt alle partikler/individer.
|
Vis forbedret problemløser-status
|
Hvis aktiveret vises under løsningsprocessen en supplerende dialog, som giver oplysninger om den aktuelle fremgang, stagnationsniveauet, den aktuelle bedst kendte løsning såvel som muligheden af at stoppe eller genstarte løsningen.
|
Sværmens størrelse
|
Definerer det antal individer, der deltager i læringsporcessen. Hver individ finder sine egne løsninger og bidrager til den samlede viden.
|
Stagnationsgrænse
|
Hvis dette antal individuelt fundne løsninger er inden for et snævert område, stoppes gentagelsen og den bedste af disse værdier vælges som den optimale.
|
Stagnationstolerance
|
Definerer i hvilket område, løsninger anses som “lignende”.
|
Brug ACR-sammenligner
|
Hvis deaktiveret (standard) bruges BCH-sammenligneren. Den sammenligner to individer ved først at se på deres overtrædelser af begrænsninger og kun hvis disse ligner hinanden, måler den deres aktuelle løsning.
Hvis aktiveret bruges ACR-sammenligneren. Den sammenligner to individer afhængigt af den aktuelle gentagelse og måler deres succes med viden om bibliotekernes kendte værste løsninger (i forhold til deres overtrædelser af begrænsningerne).
|
Brug Tilfældigt startpunkt
|
Hvis aktiveret fyldes biblioteket simpelthen op med tilfældigt valgte punkter.
Hvis deaktiveret, indsættes de aktuelt tilstedeværende værdier (som givet af brugeren) i biblioteket som referencepunkt.
|
Gætning af Variabelgrænser
|
Hvis aktiveret (standard), prøver algoritmen at finde variabelgrænser ved at se på startværdierne.
|
Tærskel for Variabelgrænser
|
Under gætning af variabelgrænser angiver denne tærskel, hvordan startværdierne ombyttes for at bygge grænserne. Se et eksempel på, hvordan disse værdier beregnes, i manualen i wiki-en.
|
Social Cognitiv Optimering tager hensyn til menneskelig adfærd under læring og deling af information. Hvert individ har adgang til et fælles bibliotek med viden, der deles blandt alle individer.
Indstilling
|
Beskrivelse
|
Antag, at variabler er ikke-negative
|
Marker, for at tvinge variabler til udelukkende at være positive.
|
Læringcykler
|
Definerer det antal gentagelser, algoritmen bør tage. I løbet af hver gentagelse foretager alle individer et gæt på den bedste løsning og deler deres viden.
|
Vis forbedret problemløser-status
|
Hvis aktiveret vises under løsningsprocessen en supplerende dialog, som giver oplysninger om den aktuelle fremgang, stagnationsniveauet, den aktuelle bedst kendte løsning såvel som muligheden af at stoppe eller genstarte løsningen.
|
Bibliotekets størrelse
|
Definerer den mængde information, der skal gemmes i det fælles bibliotek. Hvert individ oplagrer viden der og søger information.
|
Sværmens størrelse
|
Definerer det antal individer, der deltager i læringsporcessen. Hver individ finder sine egne løsninger og bidrager til den samlede viden.
|
Stagnationsgrænse
|
Hvis dette antal individuelt fundne løsninger er inden for et snævert område, stoppes gentagelsen og den bedste af disse værdier vælges som den optimale.
|
Stagnationstolerance
|
Definerer i hvilket område, løsninger anses som “lignende”.
|
Brug ACR-sammenligner
|
Hvis deaktiveret (standard) bruges BCH-sammenligneren. Den sammenligner to individer ved først at se på deres overtrædelser af begrænsninger og kun hvis disse ligner hinanden, måler den deres aktuelle løsning.
Hvis aktiveret bruges ACR-sammenligneren. Den sammenligner to individer afhængigt af den aktuelle gentagelse og måler deres succes med viden om bibliotekernes kendte værste løsninger (i forhold til deres overtrædelser af begrænsningerne).
|
Gætning af Variabelgrænser
|
Hvis aktiveret (standard), prøver algoritmen at finde variabelgrænser ved at se på startværdierne.
|
Tærskel for Variabelgrænser
|
Under gætning af variabelgrænser angiver denne tærskel, hvordan startværdierne ombyttes for at bygge grænserne. Se et eksempel på, hvordan disse værdier beregnes, i manualen i wiki-en.
|
Indstilling
|
Beskrivelse
|
Antag, at variabler er heltal
|
Marker for at tvinge variabler til udelukkende at være heltal.
|
Antag, at variabler er ikke-negative
|
Marker, for at tvinge variabler til udelukkende at være positive.
|
Epsilon-niveau
|
Epsilon-niveau. Gyldige værdier ligger i området 0 (meget tæt) til 3 (meget løst). Epsilon er tolerencen for afrunding af værdier til nul.
|
Begræns dybden i forgrening-og-begrænsning
|
Angiver den maksimale dybde i forgrening-og-begrænsning. En positiv værdi betyder, at dybden er absolut. En negativ værdi betyder en relativ begrænsning af dybden i forgrening-og-begrænsning.
|
Problemløserens tidsgrænse
|
Sætter den maksimale tid, algoritmen kan tilnærme sig en løsning.
|
Indstilling
|
Beskrivelse
|
Antag, at variabler er heltal
|
Marker for at tvinge variabler til udelukkende at være heltal.
|
Antag, at variabler er ikke-negative
|
Marker, for at tvinge variabler til udelukkende at være positive.
|
Problemløserens tidsgrænse
|
Sætter den maksimale tid, algoritmen kan tilnærme sig en løsning.
|
Sværm-algoritme
|
Sæt sværm-algoritmen. 0 for differentiel evolution og 1 for partikel-sværm optimering. Standard er 0.
|