DEPS består af to uafhængige algoritmer: Differentiel evolution og Partikelsværm-optimering. Begge er særligt egnet til numeriske problemer, såsom ikke-lineær optimering og komplementerer hinanden derved at de udligner hinandens mangler.
Opsætning
|
Beskrivelse
|
Agenternes ombytningshastighed
|
Angiver sandsynligheden for, at et individ vælger strategien Differentiel evolution.
|
Antag ikke-negative som variabler
|
Marker for at gennemtvinge udelukkende postive variaabler.
|
DE: Overkrydsningssandsynlighed
|
Definerer sandsynligheden for, at det individuelle væsen kombineres med det globale bedste punkt. Hvis der ikke anvendes overkrydsning, indsamles punktet fra individets egen hukommelse.
|
DE: Skaleringsfaktor
|
Under overkrydsning bestemmer skaleringsfaktoren bevægelsens "hastighed".
|
Læringscykler
|
Definerer det antal gentagelser, algoritmen skal gennemgå. I hver gentagelse gætter alle individer på den bedste løsning og deler deres viden.
|
PS: Kognitiv konstant
|
Sætter vigtigheden af egen hukommelse (i særdeleshed det bedst nåede punkt indtil nu).
|
PS: Restriktions-koefficient
|
Definerer den hastighed, hvormed partiklerne/individerne bevæger sig mod hinanden.
|
PS: Mutations-sandsynlighed
|
Definerer sandsynligheden for, at den tilfældigt vælger en ny værdi fra det gyldige område til den variabel i stedet for at flytte en komponent af artiklen til det bedste punkt.
|
PS: Social konstant
|
Sætter det globale bedste punkts vigtighed mellem alle partikler/individer.
|
Vis løsningsmotorens udvidede status
|
Hvis aktiveret vises en yderligere dialog under løsningsprocessen, som giver oplysninger om den aktuelle fremgang, stagnationsniveauet, den bedst kendte løsning såvel som muligheden for at stoppe eller restarte løsningsmotoren.
|
Sværmens størrelse
|
Definerer antallet af individer, der skal deltage i læringsprocessen. Hvert individ finder sin egen løsning og bidrager til den samlede viden.
|
Stagnationsgrænse
|
Hvis antallet af individuelt fundne løsninger inden for en snæver område, stoppes gentagelsen og den bedste af disse værdier vælges som den optimale.
|
Stagnationstolerance
|
Definerer i hvilket område, løsninger anses som "lignende".
|
Brug af ACR-sammenligner
|
Hvis deaktiveret (standard), bruges BCH-sammenligneren. Den sammenligner to individer ved først at se på deres overtrædelser af restriktionerne og kun hvis de ligner hinanden, måler den deres aktuelle løsning.
Hvis aktiveret, bruges ACR-sammenligneren. Den sammenligner to individer afhængigt af den aktuelle gentagelse og måler deres kvalitet med viden om bibliotekerne værste kendte løsninger (i henseende til deres overtrædelser af restriktionerne).
|
Anvendelse af tilfældigt startpunkt
|
Hvis aktiveret, fyldes biblioteket helt enkelt med tilfældigt valgte punkter.
Hvis deaktiveret, indsættes de i øjeblikket aktuelle værdier (som givet af brugeren) i biblioteket som referencepunkt.
|
Gisning af variabelgrænser
|
Hvis aktiveret (standard), prøver algoritmen at finde variabelgrænser ved at se på startværdierne.
|
Tærskel for variabelgrænser
|
Under gisning af variabelgrænser angiver denne tærskel, hvordan startværdierne forskydes for at bygge grænserne. Se venligst et eksempel på, hvordan disse værdier beregnes, i manualen i Wiki-en.
|
Socialkognitiv optimering tager hensyn til menneskelig adfærd under læring og deling af oplysninger. Hvert individ har adgang til et fælles bibliotek og viden delt mellem alle individer.
Opsætning
|
Beskrivelse
|
Antag ikke-negative som variabler
|
Marker for at gennemtvinge udelukkende postive variaabler.
|
Læringcykler
|
Definerer det antal af gennemløb, algoritmen bør tage. I hvert gennemløb gisner alle individer på den bedste løsning og deler deres viden.
|
Vis løsningsmotorens udvidede status
|
Hvis aktiveret vises en yderligere dialog under løsningsprocessen, som giver oplysninger om den aktuelle fremgang, stagnationsniveauet, den bedst kendte løsning såvel som muligheden for at stoppe eller restarte løsningsmotoren.
|
Bibliotekets størrelse
|
Definerer mængden af oplysninger, der skal gemmes i det fælles bibliotek. Hvert individ lagrer viden der og efterspørger oplysninger.
|
Sværmens størrelse
|
Definerer antallet af individer, der skal deltage i læringsprocessen. Hvert individ finder sin egen løsning og bidrager til den samlede viden.
|
Stagnationsgrænse
|
Hvis antallet af individuelt fundne løsninger inden for en snæver område, stoppes gentagelsen og den bedste af disse værdier vælges som den optimale.
|
Stagnationstolerance
|
Definerer i hvilket område, løsninger anses som "lignende".
|
Brug af ACR-sammenligner
|
Hvis deaktiveret (standard), bruges BCH-sammenligneren. Den sammenligner to individer ved først at se på deres overtrædelser af restriktionerne og kun hvis de ligner hinanden, måler den deres aktuelle løsning.
Hvis aktiveret, bruges ACR-sammenligneren. Den sammenligner to individer afhængigt af den aktuelle gentagelse og måler deres kvalitet med viden om bibliotekerne værste kendte løsninger (i henseende til deres overtrædelser af restriktionerne).
|
Gisning af variabelgrænser
|
Hvis aktiveret (standard), prøver algoritmen at finde variabelgrænser ved at se på startværdierne.
|
Tærskel for variabelgrænser
|
Under gisning af variabelgrænser angiver denne tærskel, hvordan startværdierne forskydes for at bygge grænserne. Se venligst et eksempel på, hvordan disse værdier beregnes, i manualen i Wiki-en.
|
Opsætning
|
Beskrivelse
|
Antag heltal som variabler
|
Marker for at gennemtvinge, at kun heltal kan være ariabler.
|
Antag ikke-negative som variabler
|
Marker for at gennemtvinge udelukkende postive variaabler.
|
Epsilon-niveau
|
Epsilon-niveau. Gyldige værdier er i området 0 (meget tæt) til 3 (meget løst). Epsilon er tolerancen for at afrunde værdier til nul.
|
Begræns forgrening og begrænsning
|
Specificerer den maksimale dybde i forgrening-og-begrænsning. En positiv værdi betyder, at dybden er absolut. En negativ værdi betyder en relativ begrænsning af forgrenings-og-begrænsnings dybden.
|
Begrænsning af løsningstid
|
Sætter den maksimale tid, hvor algoritmen skal konvergere mod en løsning.
|