Eipä tuossa nyt ole kuin valmiin aikajanan renderöinti 4k-videoksi ja Premiere hyödyntää GPU:ta siinä ja on nopeampi kuin prosessori.
Tämä on siis sellaisen tahon näkemys joka tuottaa yhtä / paria videota yhtä aikaa ja jonka videoita kukaan ei katso siinä formaatissa missä ne koneesta ulos tulevat.
Esim. teidän tapauksessa varmaankin videolla on tasan yksi katsoja: Youtuben ingest-engine. Se purkaa ensimmäisenä videon ja uudelleentranskoodaa sen ainakin tusinaksi, ellei pariksi tusinaksi eri resoluutio + kodekki + asetusyhdistelmäksi. Silloin käytännössä ei ole mitään väliä mitä tuotetaan, kunhan output on sellainen että Youtube hyväksyy sen sisään. Ja outputteja on rinnakkain tasan yksi.
Jos taas sulla on erilaisia päätelaitteita joilla videota katsotaan suoraan siinä formaatissa joka sun editointivehkeistä tulee ulos ja haluat laajaa taaksepäinyhteensopivuutta, niin et välttämättä voi ottaa 2025 Adobe Premieriä, klikata GPU-kiihdytystä päälle ja olettaa että se yksi output toimii sekä 2008 itse koodaamallasi PS3 appsilla ja raspberry pi 2:lla samalla tavalla kuin modernilla viimeisimmän sukupolven videokiihdytyspiirillä olevalla 3nm SOC-kännykällä.
Jos sun työnä on pyörittää yle-areenaa / netflixiä / katsomoa ja tarjota ~kaikille kuviteltavissa oleville päätelaitteille videota, niin output-prosessi on vähän monimutkaisempi kuin premierin yksi GPU-kiihdytetty output.
Kun tuotat itse ABR-videota (adaptive bitrate) johonkin areenan tyyliseen palveluun, niin riippuen siitä että kuka katsoo ja millä päätelaitteella + nettiyhteydellä, niin sun pitää outputtaa 4K, 1440p, 1080p, 720p, 540p, 480p, 360p ja 240p laadut, osan kylkeen on syytä mixata dolby atmos äänet, vähemmän fancyjä kotiteatterikuluttajia varten 5.1 DD äänet ja 2.0 äänistäkin ehkä kaksi versiota, yksi kompressoitu versio läppärikajareilla katsojia varten ja toinen niitä varten jotka haluavat vähän enemmän dynamiikkaa. Ja osa videoista pitää pakata kodekilla joka toimii legacy-laitteilla - ja osa taas haluaa AV1:stä...
4K:n voi ehkä surutta enkoodaata H.265:sella ja/tai AV1:llä olettaa että päätelaite hanskaa sen, mutta monet low-end kännykät tai edes pc-koneet eivät tue uusimpia kodekkeja, joten h.264 on yksi liki pakollinen output. Ja jos asiakkaasi ovat maksavia asiakkaita, niin ulinaa on luvassa jos heidän kiinalainen neverhörd-androidinsa ei pyöritä vähintään 720p:tä miracastilla 2013 vuoden smart-tv:ssä huonosti kuuluvan 2.4GHz ja ruuhkaisen N-wifin yli...
--
Mutta ei teidän tuollaista kannata benchmarkata. Huomautan vaan että ammattikäytössä output ei välttämättä ole yksi video, vaan esim. 20 eri formaatin / resoluution videota ja niitä usein transkoodataan rinnakkain, jolloin 128-threadiä saattaa mennä paljon parempaan käytöön kuin yhtä 1080p outputtia jauhaessa.
--
Meillä on töissä satoja rack-unitteja X86-servereitä jauhamassa videota juuri yllä mainittujen syiden takia. Ja X86 lähinnä koska silloin on helpompi tukea kaikkia haluttuja kodekkeja ja cpu-enkoodauslibeissä on eniten asetus- ja compatibility-vipuja joilla saa asiat toimimaan kaikilla kuviteltavilla vehkeillä yhtä aikaa.