Det finns filmskapare som filmar i hög upplösning hela tiden, på högsta möjliga nivå, trots att de flesta skärmar inte har stöd för det. En skärm som endast stöder 1080p Full HD kommer inte att kunna visa video i sann högre upplösning i 4K, så den kommer definitivt inte att kunna visa innehåll som filmats i 12K. Varför skulle en regissör filma med en 12K-kamera för innehåll som mestadels kommer att ses från skärmar med lägre upplösning? Det finns en grundläggande anledning till detta, och resultaten är verkligen fantastiska.
Notera: Nativt 12K-innehåll kan inte visas på skärmar med lägre upplösning eftersom det är för stort och inte får plats på dessa skärmar. 12K innehåller fler pixlar i bilderna. Därför måste det downsamplas för att stödja en lägre upplösning för att passa för visning.
Fördelarna med 12K
De uppenbara fördelarna för filmskapare när de använder en 12K-kamera eller annan kamera med hög upplösning (t.ex. 4K, 6K, 8K etc.) är följande:
- Mindre brus i bilderna på grund av större sensorstorlek.
- Fångar mer ljus för bättre bildkvalitet (idealisk för filmning i svagt ljus).
- Bildkvaliteten ser mer realistisk och engagerande ut för publiken.
- Bäst för stora skärmar större än 30″ och biografdukstorlek.
- Ferare detaljer fångas.
- Bättre stöd för färgdjup.
- Bättre för efterproduktion när det gäller redigering.
Hög kvalitet med lägre upplösning
Skälet till att en regissör eller filmare skulle använda en högupplöst kamera (e.t.ex. 12K-kamera) beror på högre kvalitet när det gäller bildbehandling. Det finns mycket mer saker som redigerare kan göra med högupplöst video än om kameran används för ett specifikt inhemskt format. Det skulle vara slöseri med tid och pengar att filma en föreställning med kameror i olika format bara för att stödja en viss typ av skärm. Tänk att behöva göra tre tagningar för en show bara för att ha en version som passar för 720p HD, 1080p FHD och 4K 2160p UHD. Produktionsbudgetarna skulle skjuta i höjden, för att inte tala om att filmning och inspelning kan ta från dagar till veckor. I stället för att göra det är det bäst att använda den högsta upplösningskamera som finns tillgänglig för produktionen för att täcka de olika formaten genom efterbehandlingsprocessen med nedskalning.
Du kan fortfarande se en 12K-film förutsatt att den har nedskalats på lämpligt sätt så att den kan ses från en skärm med lägre upplösning. Nedskalning eller downsampling gör det möjligt för redigerare att ta ett högupplöst format och sampla det ner till en lägre upplösning utan att förlora för mycket kvalitet. En bildskärm som lämpar sig för 12K är bäst för visning, men den specifika upplösningen kan nedskalas till 8K, 4K och 2K 1080p utan att kvaliteten försämras alltför mycket. Den behåller tillräckligt med information om bildens kvalitet i den samplade lägre upplösningen utan alltför mycket brus eller försämring.
I downsampling minskar vi antalet pixlar från dess ursprungliga format 12K, men behåller fortfarande den kvalitetsnivån. 12K-upplösningen är 12288 x 6480 för totalt 79 626 240 pixlar (motsvarande 80 MP). Om vi downsamplar till 4K-upplösning minskar vi antalet pixlar till 3840 x 2160 eller 8 294 400 pixlar (motsvarande 8 MP). Det innebär att antalet pixlar minskas 10 gånger. Samplingförhållandet är 3 pixlar till 1 eller 3:1. Det som är bra med detta är att videokvaliteten fortfarande bibehålls, även om det innebär andra processer (t.ex. komprimering, färgning osv.) i efterproduktionen också. Minskningen av pixlarna sker för att stödja 4K-skärmens upplösningsstorlek.
I dag stöder de flesta skärmar minst 720p HD. Innehållsleverantören, oavsett om det är YouTube eller Netflix, måste tillhandahålla det tillgängliga innehåll som stöds av användarens skärm. Antag att du vill strömma en video på en HD-skärm. Appar kan upptäcka skärmtypen och anpassa innehållet därefter för tittaren. I det här fallet måste den sänka upplösningen till HD eftersom den inte har stöd för 4K.
Chroma Subsampling
Den främsta anledningen till att nedskalade format ändå ser bättre ut på skärmar med låg upplösning har att göra med chroma subsampling. Enligt denna teknik har det mänskliga visuella systemet en lägre skärpa för färgskillnader än för luminans. Detta beror på att det mänskliga ögat är mer känsligt för variationer i ljusstyrka än i färg.
I digital avbildning delas en informationspixel i en bild upp i två komponenter: luma (Y’) och två färgskillnadskomponenter som kallas kroma (Cb, Cr). Cb är den blå och Cr betecknar den röda färgkomponenten i kroma. Tillsammans kodas denna information i pixeln som YCbCr, vilket är ett kodat färgutrymme som härrör från RGB. Vid downsampling behålls mer information för lumakomponenten.
När tittarna tittar på en video med downsampling på sin skärm med låg upplösning kan de fortfarande se att kvaliteten bibehålls även vid en lägre upplösning. Fotoreceptorerna i det mänskliga ögat innehåller fler stavceller (120 miljoner) som är känsliga för ljusstyrka. Om pixelförhållandet för nedskalning är 3:1 (12K till 4K) behöver konverteringen bara behålla informationen om lumakanalen från alla tre pixlarna och kasta en del av kromakanalen. Du kan extrapolera värdet av 3 pixlar till 1, när du downsamplar från 12K till 4K.
Som ett resultat av detta kan du nedskala den högsta möjliga upplösningen och tittarna kommer inte att märka några förändringar i bildkvaliteten. Innehållet kommer fortfarande att se fantastiskt ut, även om det bäst visas i sitt ursprungliga högupplösta format.
Fördelar med postproduktion
När det gäller postproduktion finns det gott om möjligheter för redaktörer att vara kreativa. De har mycket mer att arbeta med när det gäller data som lagras i högupplösta format jämfört med en lägre upplösning. Det är därför som lagringsenheten på kameran måste vara lämplig för lagring av videon när man filmar i 4K och högre format som 12K. Lagringsmediet måste också vara tillräckligt snabbt för att klara av dataskrivningshastigheterna när man fångar material med kameran. CFast och UHS-II är idealiska för lagring med hög hastighet och hög upplösning.
Grabbning av stillbilder från 12K-videoklipp gör det möjligt för redigerare att få högupplösta foton. Detta är samma sak med 4K och andra högupplösta kameror. Detta är faktiskt som att slå två flugor i en smäll. När du filmar för en kund kan du presentera både video och stillbilder från produktionen. Regissören behöver inte en annan kamera bara för att fotografera stillbilder när de kan tas från ramarna i det material som filmats med en enda kamera.
När redigerare downsamplar ökar de också skärpan något på grund av högre pixeltäthet i vissa skärmar med lägre upplösning. Detta mäts i PPI (pixlar per tum). Ju tätare pixlarna är (närmare varandra) desto skarpare och tydligare blir bilden. På grund av högre pixeltäthet ser böjda linjer i bilderna mjukare ut och uppvisar mer djup. Detta ger bilder som tagits i 12K och som nedskalats till HD eller FHD ett fantastiskt utseende, eftersom de behåller samma kvalitetsnivå med det extra djupet. Det är det som gör att innehållet framträder för tittarna.
När det gäller färggradering har du mer data att arbeta med i 12K. Detta beror på att med fler pixlar kan våra ögon avgöra subtila färg- och gradientförskjutningar i bilder. Med stöd för färgrymder som REC2020 har färgsättaren en bred färgskala att välja mellan för att framhäva scenerna i videon. Detta ger mer verklighetstrogna och realistiska bilder med rika färger som bäst syns nativt på 12K-skärmar, men som fortfarande ser bra ut när de nedskalas.
Redaktörer som inte har 12K-skärmar som är nativa kan fortfarande redigera dem. Detta sker med hjälp av videoredigeringsprogram som Premiere Pro och Final Cut Pro som använder renderingsproxies. Programvaran kan ta enormt 12K-material och konvertera det till versioner med lägre upplösning som redigeraren kan arbeta med med en 5K-skärm. När redigeraren är klar kan han exportera innehållet tillbaka till 12K för distribution.
Video med högre upplösning gör det också möjligt att zooma, panorera och stabilisera bättre utan att det blir för mycket aliasing eller artefakter vid inramning av bilder. En redigerare kan zooma in ett x antal gånger för att få en närmare bild men ändå behålla dess kvalitet. Om regissören begär en närbild för att zooma in på en skådespelares ansikte kan redigeraren enkelt rama in den utan att oroa sig för trappstegseffekten som är vanlig med bilder med låg upplösning. Bilderna kan också stabiliseras mycket bättre på grund av mer spårningsinformation som är tillgänglig för redigeringsprogrammen.
Det finns fler exempel, men dessa är de mest uppenbara i postdigitala arbetsflödesmiljöer. Kostnaden är en annan aspekt, så det måste finnas en öppen budget för att stödja användningen av kameror med högre upplösning. Det kräver mer lagringsutrymme för data, högre kompetensnivå för redaktörer och färgsättare, högre försäkringskostnader för utrustning som kameran och uppgradering av mjukvarufunktioner.
Onlinekomprimering
Det finns en intressant artikel om hur onlinekomprimering fortfarande kan påverka kvaliteten för downsamplat innehåll. Om du är en innehållsskapare som filmar med en kamera med hög upplösning (i artikeln nämns 4K-kamera) och downsamplar till 1080p, kommer uppladdning av det resulterande innehållet till tjänster som YouTube inte att bevara dess kvalitet. Detta beror på komprimering. När codec:en komprimerar videon för YouTubes innehållsleveranstjänst går kvaliteten förlorad i skärpa och detaljrikedom.
Det är om du tittar på bilden extremt nära, i vilket fall du skulle behöva titta på innehållet med 400x zoom som i artikeln. Annars finns det för genomsnittliga tittare inget sätt att avgöra hur komprimeringen har påverkat bildkvaliteten. Komprimering av innehållet gör mindre skillnad i kvalitet mellan en nedskalad 4K-video och en ursprunglig 1080p-video. Även om så är fallet betyder det inte att du bara ska använda en 1080p-kamera för YouTube-innehåll. Det har förekommit klagomål på hur YouTube minskar kvaliteten för alla typer av video som laddas upp till deras plattform, men detta är nödvändigt för att spara bandbredd.
YouTube levererar det strömmande innehållet i realtid och om det inte fanns någon komprimering kan flaskhalsar snabbt uppstå. Tills det finns mer uppdatering av codec-situationen hos YouTube är det fortfarande bäst att downsampla eftersom det finns mer kreativitet att arbeta med och i de flesta fall (även när det är komprimerat) är innehållet fortfarande mycket bättre för de flesta tittare.
Enligt artikeln:
”Although, given how YouTube is continually developing, maybe in a year or two this article will become redundant.”
Det finns alltid hopp om att det ska komma bättre saker när tekniken utvecklas med tiden.
Synopsis
Om det är kvalitet (t.ex. färg, ton, djup, kontrast) och flexibilitet som innehållsskaparen är ute efter, är det definitivt den bästa idén för bildbehandling att använda högre upplösning med en 12K-kamera. Anledningen till att många filmskapare föredrar att fotografera i högre upplösning har att göra med kvalitet och kreativitet. Varför fortsätta filma med en 1080p-kamera i FHD när du kan göra det mycket bättre med en kamera med högre upplösning? Detta betyder inte att alla filmskapare omedelbart ska byta ut sina kameror och gå över till 4K eller 12K. Det finns fortfarande kostnader att ta hänsyn till när man använder högupplösta kameror eftersom de är dyrare att köpa. Seriösa filmskapare (kommersiella eller filmiska) bör förmodligen göra det eftersom det finns många fler fördelar och fördelar med att filma med en 12K-kamera (4K eller annan kamera med högre upplösning än 1080p) jämfört med en 1080p-kamera.