recordere.dk forum     Det danske community for hjemmets elektronik og indhold     Siden 2003
<b>Forside</b> Forside > Generelle emner > PC hardware & software
  Nye indlæg Nye indlæg  Seneste forum emner Seneste   Seneste forum emner (vindue) Vindue   De emner du deltager i Mine emner RSS Feed - Ny Generation af Grafikkort.
  FAQ FAQ  Søg i forum   Opret ny bruger Opret ny bruger  Log ind Log ind

Ny Generation af Grafikkort.

 Besvar Besvar Side  <1 2122232425 33>
Forfatter
Besked
LeChuck Se dropdown menu
Bruger
Bruger


Oprettet: 09-April-2011
Status: Offline
Point: 173
Funktioner Funktioner   Tak (0) Tak(0)   Citér LeChuck Citér  BesvarSvar Direkte link til dette indlæg Sendt: 29-Marts-2022 kl. 08:34
Oprindeligt skrevet af Rasmus Larsen Rasmus Larsen skrev:

Der kan afvikles mange forskellige typer modeller på Apples NPU'er, og konverteres fra TensorFlow. Det er det Core ML er skabt til, så det er egentlig bare op til softwareudviklerne: https://developer.apple.com/machine-learning/core-ml/

Der kan skam opbygges og trænes modeller på NPU'erne i Apples chips. Det sker vha. deres Create ML framework: https://developer.apple.com/machine-learning/create-ml/
Jeps, du kan lave mange forskellige Core ML modeller, men det betyder ikke den bruger NPU'en. Tjek evt. dette link. Som du kan se af linket er der en del begrænsninger, selvom "meget specifikke modeller" nok er en overdrivelse.

Udover det synes jeg det er tankevækkende at M1, M1 Pro og M1 Max har den samme NPU (Ultra har naturligvis dobbelt op). Det tyder umiddelbart ikke på at Apple mener den del af chippen spiller en stor rolle, når først ydelsen på resten af systemet stiger.
Til top
Rasmus Larsen Se dropdown menu
Guld medlem
Guld medlem
Avatar
FlatpanelsDK

Oprettet: 23-Januar-2010
Sted: Danmark
Status: Offline
Point: 4434
Funktioner Funktioner   Tak (0) Tak(0)   Citér Rasmus Larsen Citér  BesvarSvar Direkte link til dette indlæg Sendt: 29-Marts-2022 kl. 09:48
Det udbygges løbende igennem software – også til eksisterende Apple-enheder med NPU'er. I Core ML 3 er der eksempelvis udvidet med en en del yderligere processer, der kan afvikles på NPU'erne.

Den her gennemgang er super nørdet og ikke til at forstå, hvis man ikke arbejder med maskinlæring, men den giver også nogle overordnede punkter ift. udviklingen fra Core ML version 1 til 3: https://machinethink.net/blog/new-in-coreml3/

Men sådan er det jo nu engang alle steder, hvor en NPU tages i brug. Den kan løse nogle opgaver, men ikke dem alle lige nu og her. Et integreret chipdesign med UMA giver bedre ydelse og større fleksibilitet ift. at rykke opgaverne rundt imellem de forskellige typer af processorer.
Til top
LeChuck Se dropdown menu
Bruger
Bruger


Oprettet: 09-April-2011
Status: Offline
Point: 173
Funktioner Funktioner   Tak (0) Tak(0)   Citér LeChuck Citér  BesvarSvar Direkte link til dette indlæg Sendt: 29-Marts-2022 kl. 11:23
Selvfølgelig vil Apple opdatere sine udvikler værktøjer løbende. Men bare fordi Apple introducerer en masse nye modeller i Core ML, betyder det ikke at de som udgangspunkt kører på NPU'en. Med Apples egne ord: "Core ML is designed to seamlessly take advantage of powerful hardware technology including CPU, GPU, and Neural Engine" (kursivering lavet af undertegnede).
Til top
Rasmus Larsen Se dropdown menu
Guld medlem
Guld medlem
Avatar
FlatpanelsDK

Oprettet: 23-Januar-2010
Sted: Danmark
Status: Offline
Point: 4434
Funktioner Funktioner   Tak (0) Tak(0)   Citér Rasmus Larsen Citér  BesvarSvar Direkte link til dette indlæg Sendt: 29-Marts-2022 kl. 11:42
Jeg forstår nok ikke rigtig din pointe. Det er klart, at processen afvikles på den processor, som er mest effektiv til opgaven. Et integreret design sikrer, at det i praksis sker gnidningsfrit – deraf ordet "seamlessly" i deres egen beskrivelse.

Core ML opdateres løbende til at flere modeller kan afvikles. Et stigende antal på NPU. Se bl.a. artiklen i mit forrige indlæg.
Til top
LeChuck Se dropdown menu
Bruger
Bruger


Oprettet: 09-April-2011
Status: Offline
Point: 173
Funktioner Funktioner   Tak (0) Tak(0)   Citér LeChuck Citér  BesvarSvar Direkte link til dette indlæg Sendt: 29-Marts-2022 kl. 12:46
Oprindeligt skrevet af Rasmus Larsen Rasmus Larsen skrev:

Ligesom spil ikke gør meget brug af "AI" – for at bruge et modeord – fordi spil-PC'er generelt ikke har NPU'er.
Min pointe er at NPU'er i stil med den i M1 ikke er nødvendige for bedre AI i spil. Det er en smart lille chip, der fungerer fint til det den er bygget til. Men den har nogle ret tydelige begrænsninger, du ikke finder i en CPU / GPU.
Til top
Rasmus Larsen Se dropdown menu
Guld medlem
Guld medlem
Avatar
FlatpanelsDK

Oprettet: 23-Januar-2010
Sted: Danmark
Status: Offline
Point: 4434
Funktioner Funktioner   Tak (0) Tak(0)   Citér Rasmus Larsen Citér  BesvarSvar Direkte link til dette indlæg Sendt: 29-Marts-2022 kl. 13:17
Jeg talte i generelle termer om sammenhængen imellem hardware og softwareudvikling ift. modulære vs. integrerede systemer. Og jeg talte om årsag-virkning og gav nogle eksempler. Min pointe var, at man ikke konkludere, at fordi noget er på en given måde i dag eller i overskuelig fremtid, så er det fordi det er den rigtige eller optimale tilgang. Vi kan godt tale M1 specifikt, men det var ikke mit oplæg.

NPU'er giver nogle nye muligheder indenfor flere felter, heriblandt spil. Det er stadig i en rimelig tidlig fase hvad angår både hardware og software, men der er spændende perspektiver i det på længere sigt. Ligesom flere opgaver gennem tiden er flyttet fra CPU'en til GPU'en, så vil visse eksisterende og fremtidige opgaver blive flyttet igen, heraf nogle til NPU. Det sker allerede.
Til top
Rasmus Larsen Se dropdown menu
Guld medlem
Guld medlem
Avatar
FlatpanelsDK

Oprettet: 23-Januar-2010
Sted: Danmark
Status: Offline
Point: 4434
Funktioner Funktioner   Tak (0) Tak(0)   Citér Rasmus Larsen Citér  BesvarSvar Direkte link til dette indlæg Sendt: 29-Marts-2022 kl. 15:04
Nvidia lancerer RTX 3090 Ti: https://www.theverge.com/2022/3/29/23001134/nvidia-rtx-3090-ti-specs-release-date-pricing

Pris på 2000 USD versus 1500 USD (vejl. ved lancering) på RTX 3090.
Til top
Flippo Se dropdown menu
Guld medlem
Guld medlem


Oprettet: 04-Januar-2018
Status: Offline
Point: 1308
Funktioner Funktioner   Tak (0) Tak(0)   Citér Flippo Citér  BesvarSvar Direkte link til dette indlæg Sendt: 29-Marts-2022 kl. 15:09
Confused
Til top
LeChuck Se dropdown menu
Bruger
Bruger


Oprettet: 09-April-2011
Status: Offline
Point: 173
Funktioner Funktioner   Tak (0) Tak(0)   Citér LeChuck Citér  BesvarSvar Direkte link til dette indlæg Sendt: 29-Marts-2022 kl. 17:58
Oprindeligt skrevet af Rasmus Larsen Rasmus Larsen skrev:

NPU'er giver nogle nye muligheder indenfor flere felter, heriblandt spil. Det er stadig i en rimelig tidlig fase hvad angår både hardware og software, men der er spændende perspektiver i det på længere sigt. Ligesom flere opgaver gennem tiden er flyttet fra CPU'en til GPU'en, så vil visse eksisterende og fremtidige opgaver blive flyttet igen, heraf nogle til NPU. Det sker allerede.
Det er ærlig talt der du mister mig. NPU'en i Apples chips er, så vidt jeg informeret, oprindeligt udviklet til at gøre FaceID, Siri og andre OS relaterede ting hurtigere og mindre strømkrævende. Det giver god mening, da funktionerne er temmelig essentielle for en smartphone  Dertil går jeg ud fra vi er blevet rimeligt enige om, at den ikke nødvendigvis er optimal til andre udregninger som kommer under maskinlæring, men ikke har noget at gøre med ovenstående områder?

På PC har vi i mange år haft GPU'er som er fantastiske til maskinlæring (nVidia som TBC1 nævner), og som kan optimeres til at udføre alle modeller, uanset hvad de skal bruges til. Dertil er der, som du selv er inde på i et tidligere indlæg (hvor du omtaler PhysX), allerede masser af specifikke funktioner der er understøttet direkte i GPU'erne. Så hvorfor i alverden har vi behov for en NPU til at accelerer spil på PC? Så vidt jeg kan se har vi det allerede.
Til top
TBC1 Se dropdown menu
Guld medlem
Guld medlem
Avatar

Oprettet: 19-Februar-2009
Status: Offline
Point: 1972
Funktioner Funktioner   Tak (0) Tak(0)   Citér TBC1 Citér  BesvarSvar Direkte link til dette indlæg Sendt: 29-Marts-2022 kl. 21:08
Oprindeligt skrevet af Rasmus Larsen Rasmus Larsen skrev:

Ift. ovenstående så synes jeg, at der er flere aspekter i det end opløsning, frame rate og detaljegrad. F.eks. HDR giver spiludviklerne mulighed for at udnytte en større palette af lys og farver, hvilket efter min mening et giver markant større grafisk løft end springet fra f.eks. 1440p til 4K eller fra low til high settings. Jeg synes f.eks., at det første Horizon spil var et større grafisk spring ift. et typisk PS4-spil end springet fra PS4 til PS5 i det aktuelle Horizon spil. HDR er stadig ikke slået igennem i PC-økosystemet, hvilket skyldes den modulære tilgang

Sådan var balancen rigtigt nok omkring 2018-2019, men i dag kan jeg altså ikke genkende den fremlægning af sagen af to grunde: I dag er der omkring 200 spil på PC der har native HDR, mens der vel er et sted omkring 60-65 titler på PS4 (51 på listen jeg kunne finde, der dog er 9 måneder gammel - Jeg kunne af gud må vide hvilken grund ikke finde en liste for PS5, men da den har ekslusivtitler der ikke findes på PS4, så lad os bare antage omkring måske 70-75) - For det andet er det i dag normen, at nyudgivelser der har HDR på konsol også har dette i PC versionen af spillet.

Igen ender vi samme sted: Modulært kan man selv afgøre om man enten er ligeglad eller om man som entuisiast går efter udnyttelse af enten HDR eller RayTracing - eller begge dele. Og i forhold til opløsning, grafisk kvalitet, framerate og RayTracing kan man selv bestemme hvor meget højere grafiske niveauer og framerates mv. man sigter efter og ønsker at udnytte, mens man er langt mere fastlåst og uden samme omfattende indflydelse med en integreret konsol. Samtidig kan man som entuisiast så stadig takke fremskridtene på de integrerede systemer for at den lavere almene eller generelle baseline for spildesign og grafik sættes højere end i tidligere generationer, når de integrerede systemer bevæger markedets baseline frem mere konsistent i skridt end det modulære marked gør. Som du måske (måske ikke) husker, så er jeg hver gang der kommer nye konsolgenerationer altid ude og påpege hvor vigtig der er at de er meget kraftigere end forrige generation, idet det det har betydning for ambitionerne man ser i forbindelse med de cross-platform titler (hvilket jo er langt langt de fleste større spil) man også ser på PC.

I øvrigt vil jeg så tilføje at jeg personligt finder at fuldtonet/komplet Raytracing har endnu større indflydelse og effekt på et spils grafiske look end HDR i sig selv har, mens kombinationen af HDR og Raytracing naturligvis er allerbedst (Og da også kun sjældent ses adskilt i titlerne, da titlerne med RayTracing og HDR jo generelt tilhører samme generation af titler)

Der er også det aspekt at renderopløsning og billedkvalitet og stabilitet fra f.eks. DLSS er langt mere væsentligt på PC, hvor man så at sige sidder med snuden oppe i skærmen og typisk har dækket en større del af sit synsfelt end man har med et TV fra en Sofa. Så hvor hurtigt opløsning og billedstabilitet (vigtig tæt på / på meget store skærme) vs HDR og RayTracing (afstands og størrelses uafhængigt) relativt til hinanden bliver væsentlige for den samlede grafiske fidelity, er imho forskellig for PC og konsol - Jeg ønsker naturligvis det, da det alt sammen bidrager til den samlede grafiske fidelity.

Oprindeligt skrevet af Rasmus Larsen Rasmus Larsen skrev:

Min pointe er, at ekstra kræfter ikke altid kan oversættes direkte til et bedre slutprodukt. Nogle udvikler kræver tæt integration imellem kæden, hvilket et integreret design giver

Slutproduktet er jo at regne som selve spillet, mens det er en anden snak hvordan og i hvilken udstrækning den enkelte slutbruger er i stand til at udnytte et spil og dets kvaliteter. Den tætte integration imellem en hardwarekædes integrerede design og spillets settings i forbindelse med det integrerede system sikrer mere optimal udnyttelse af de nu engang tilstedeværende kræfter. Det er [fra 0] en optimal priseffektiv løsning, som jeg ofte og gerne anbefaler den mere casual gamer, der står med 0. Men med adgang til større kræfter og udnyttelser af højere opløsninger, højere framerates og de højere grafiske settings man gives adgang til i spillets PC udgave (og for den sags skyld et kvalitetsparameter som DLSS) - så vil man jo altid så længe disse faktorer eksisterer, være i stand til at udnytte produktet (spillet) med højere kvaliteter. Tidligere konsoleksklusive titler (hvis det er det du tænker på) udgives jo også til PC, hvor man tilsvarende bliver i stand til at udvikle dem i højere kvaliteter og med højere settings. Ekstra kræfter resulterer som naturlov i bedre afvikling af produktet og produktet gives yderligere også højere settings ved ekstra kræfter, hvad enten det er så er en multiplatformtitel man afvikler på PC i stedet for konsol eller hvis en ny konsol har dobbelt så mange kræfter som den tidligere generation.
Oprindeligt skrevet af Rasmus Larsen Rasmus Larsen skrev:

Ift. pris ved opgradering af modulære systemer, så er det jo ikke ligefrem billigt at købe de nye grafikkort. RTX 3080 koster vel ca. 9000 kroner og RTX 3090 ca. 16.000 kroner. De nye RTX 40-serie kort bliver næppe prissat lavere.
Jeg gav svjh omkring 6300 for mit nuværende RTX 3080, men det er sandt at det aktuelt ikke er har været hverken billigt eller let købe hverken PS5 eller RTX det seneste års tid. Da det var værst var prisen på mit kort 29.995 kr hos billigste Danske forhandler (10. Juli 2021), i dag koster det 13.398 kr. og prisen på GPU'er er netop i disse dage heldigvis faldende. Men det handler så alt sammen om andre faktorer end MSRP. Forestil dig, såfremt det nu havde eksisteret, at det var et helt og komplet integreret system med tilsvarende grafisk ydelse som f.eks. et RTX 4080 jeg skulle ud og opgradere til, for at være med hvor det var sjovest, og det hvert ca. 2 år. Det ville helt sikkert ikke havde været billigere, hvilket den aktuelle ulykkelige markedssituation jo ikke ændrer på. En Playstation 5 Digital edition koster jo stadig 7000 kr, mens et grafikkort til mit modulære system der blot ville sikre mig lidt mere end tilsvarende ydelse i multiplatformtitler ved brugen af tilsvarende grafiske settings som på konsollen koster 3550 kr, mens jeg allerede for 4350 kr ville kunne få betragteligt højere ydelse - Og det er altså i det aktuelle marked, med alle dets udfordringer.


Redigeret af TBC1 - 29-Marts-2022 kl. 23:14
PC:7800X3D,RTX4090 GB-Gaming OC,32GB DDR5@6K-CL30,LG CX
Stue:JVC N7,StudioTek 130,Denon AVR4308,Bladelius Ymer,B&W 803D,SVS PB16-Ultra,DMR-UBC80,Shield 2019
Sovevær.:KD-65AF8,HTP-075,ATV4K
Til top
Rasmus Larsen Se dropdown menu
Guld medlem
Guld medlem
Avatar
FlatpanelsDK

Oprettet: 23-Januar-2010
Sted: Danmark
Status: Offline
Point: 4434
Funktioner Funktioner   Tak (0) Tak(0)   Citér Rasmus Larsen Citér  BesvarSvar Direkte link til dette indlæg Sendt: 30-Marts-2022 kl. 06:18
Oprindeligt skrevet af LeChuck LeChuck skrev:

Oprindeligt skrevet af Rasmus Larsen Rasmus Larsen skrev:

NPU'er giver nogle nye muligheder indenfor flere felter, heriblandt spil. Det er stadig i en rimelig tidlig fase hvad angår både hardware og software, men der er spændende perspektiver i det på længere sigt. Ligesom flere opgaver gennem tiden er flyttet fra CPU'en til GPU'en, så vil visse eksisterende og fremtidige opgaver blive flyttet igen, heraf nogle til NPU. Det sker allerede.
Det er ærlig talt der du mister mig. NPU'en i Apples chips er, så vidt jeg informeret, oprindeligt udviklet til at gøre FaceID, Siri og andre OS relaterede ting hurtigere og mindre strømkrævende. Det giver god mening, da funktionerne er temmelig essentielle for en smartphone  Dertil går jeg ud fra vi er blevet rimeligt enige om, at den ikke nødvendigvis er optimal til andre udregninger som kommer under maskinlæring, men ikke har noget at gøre med ovenstående områder?

På PC har vi i mange år haft GPU'er som er fantastiske til maskinlæring (nVidia som TBC1 nævner), og som kan optimeres til at udføre alle modeller, uanset hvad de skal bruges til. Dertil er der, som du selv er inde på i et tidligere indlæg (hvor du omtaler PhysX), allerede masser af specifikke funktioner der er understøttet direkte i GPU'erne. Så hvorfor i alverden har vi behov for en NPU til at accelerer spil på PC? Så vidt jeg kan se har vi det allerede.

Jeg forstår, at det du opponerer imod er, at jeg specifikt skriver NPU. Lad os udvide det til 'neural' processering i almindelighed. Det kan Nvidia-kort også, men ligesom hos Apple så er det først i seneste generationer, at det for alvor har taget fart – aktuelt med over 100 TOPS (INT8) ydeevne og afvikling af forskelligartede modeller. Det ændrer ikke min pointe om, at mindre fokus på "AI" i spil er en brik i årsag-virkning. Vi har det ikke fordi man ikke har fokuseret på det historisk. Det er naturligvis en del af den generelle udvikling, men i mange år gennem spiludvikling har man fokuseret på opløsning på bekostning af frame rate og andre kompromisser. Det er en balancegang.

Der sidder ikke 16 NPU-kerner i M1 i Mac og iPad og A15 i en iPhone for at muliggøre Face ID, stemmegenkendelse, billedanalyse og lidt andet. Der er ikke engang Face ID på Mac. Valget om at øremærke en stor andel af transistorbudgettet til NPU er et langsigtet perspektiv ift. både hardware- og software-udvikling, og hvordan det kan muliggøre nye ting i fremtiden. Der er udviklerværktøjer til rådighed, som udbygges løbende.

Jeg arbejder eksempelvis med billedredigering dagligt og for næsten hver store opdatering af Pixelmator Pro, så introduceres der nye billedredigeringsværktøjer, der tager NPU'erne i Apples-enheder i brug i takt med, at der udvikles nye ML-modeller. Photoshop er ligeledes begyndt at omfavne det, ligesom der sker udviklinger indenfor video-apps.


Oprindeligt skrevet af LeChuck LeChuck skrev:

Så hvorfor i alverden har vi behov for en NPU til at accelerer spil på PC? Så vidt jeg kan se har vi det allerede.

For at give et historisk perspektiv på det, så stillede man samme type spørgsmål, da GPU'en begyndte at kigge frem omkring årtusindeskiftet. Jeg kan huske diskussionerne om behovet for en GPU fra dengang jeg havde Voodoo og Riva, og fra dengang jeg fik et "rigtigt" kort, Geforce 256. I dag tager vi GPU'en for givet og prisen på de bedste kort er steget markant fordi grafikkort kan løse så mange flere opgaver. Nu ser vi skridt mod dedikerede NPU'er og det er der spændende muligheder i, men tiden må vise, hvad det fører til. Ingen af os kan spå. Generelt ser vi dog på hardwaren skridt mod også at rykke andre opgaver ud på dedikerede chips (enkodning/dekodning mv) i mange forskellige typer computere. Det er modsvaret til en årelang udvikling, hvor man har forsøgt at samle mange ting i GPU'en vha. blandt andet energiineffektiv konvertering af instruktioner via CUDA, OpenCL mv.
Til top
Rasmus Larsen Se dropdown menu
Guld medlem
Guld medlem
Avatar
FlatpanelsDK

Oprettet: 23-Januar-2010
Sted: Danmark
Status: Offline
Point: 4434
Funktioner Funktioner   Tak (0) Tak(0)   Citér Rasmus Larsen Citér  BesvarSvar Direkte link til dette indlæg Sendt: 30-Marts-2022 kl. 06:32
Oprindeligt skrevet af TBC1 TBC1 skrev:

Oprindeligt skrevet af Rasmus Larsen Rasmus Larsen skrev:

Ift. ovenstående så synes jeg, at der er flere aspekter i det end opløsning, frame rate og detaljegrad. F.eks. HDR giver spiludviklerne mulighed for at udnytte en større palette af lys og farver, hvilket efter min mening et giver markant større grafisk løft end springet fra f.eks. 1440p til 4K eller fra low til high settings. Jeg synes f.eks., at det første Horizon spil var et større grafisk spring ift. et typisk PS4-spil end springet fra PS4 til PS5 i det aktuelle Horizon spil. HDR er stadig ikke slået igennem i PC-økosystemet, hvilket skyldes den modulære tilgang

Sådan var balancen rigtigt nok omkring 2018-2019, men i dag kan jeg altså ikke genkende den fremlægning af sagen af to grunde: I dag er der omkring 200 spil på PC der har native HDR, mens der vel er et sted omkring 60-65 titler på PS4 (51 på listen jeg kunne finde, der dog er 9 måneder gammel - Jeg kunne af gud må vide hvilken grund ikke finde en liste for PS5, men da den har ekslusivtitler der ikke findes på PS4, så lad os bare antage omkring måske 70-75) - For det andet er det i dag normen, at nyudgivelser der har HDR på konsol også har dette i PC versionen af spillet.

Så vidt jeg husker havde vi en lignende debat i 2016-2017 i forbindelse med lanceringen af PS4 Pro og Xbox One S. Dengang afviste du det også med henvisning til nogle få eksempler på HDR i PC-spil. Men hvis du skal zoome lidt ud, Torben, er vi så ikke enige om, at der var spilkonsollerne, der satte baseline for HDR i spilsammenhæng og i øvrigt skød det projekt rigtig i gang og udbredte det? Og hvis man skal tænke kontrafaktisk tror du så, at det ville være sket i samme tempo og standardisering i PC-økosystemet?

Samme forhold gælder objekt-baseret lyd i spil, Dolby Atmos, DTS:X og Tempest Audio (MPEG-H).

Omvendt har de modulære systemer været dem som presser opløsning og frame rate i vejret, for det er opgaver der af natur har rod mere i rå kræfter (i modsætning til tæt integration igennem kæden). Men vi er nået til et punkt, hvor yderligere fremgang i særligt opløsning ikke giver så meget længere. Pendulet svinger.

Ligesom jeg opretholder en opdateret liste over 4K HDR-film, streamingpremierer og holdback-periode, så opretholder jeg en liste over konsolspil i 4K, HDR, 120fps, ray-tracing, Dolby Atmos mv. Indtil videre er den intern til brug for historik og reference, men jeg har allerede skrevet en kodeskabelon til at publicere den som en spildatabase – jeg ved ikke om jeg går videre med det. Der er mange flere konsolspil i HDR end 60-65 titler Smile
Til top
 
 Besvar Besvar Side  <1 2122232425 33>
 
Skift forum Forum-tilladelser Se dropdown menu