Sanningen är att tekniken du behöver alltid utvecklarnas uppfinningsrikedom för att lösa de mest komplexa problemen. Den lösningen för att optimera Pixel-porträttläget kom från Google med ett specialfall med 5 kameror.
Nu undrar du varför 5 kameror behövs tillsammans i ett fall För att hitta en lösning på problemet som kan vara att bara ta ansiktet på den porträtterade och lämna resten av scenen ur fokus. Det är vad Google och dess blogg är för att ge oss en serie förklaringar.
Pixel 3: s imponerande porträttläge
I Pixel 2 gjorde stora G ett kvalitativt steg inom fotografering från en mobil enhet. Helt enkelt vi blev förvånade över hur han kunde, från programvaran, för att kunna analysera en scen så att allt utom ansikten på de porträtterade är suddigt.
För Pixel 3 också har arbetat sitt eget sätt att förbättra den tekniken och ett litet språng i kvalitet jämfört med vad som togs till Pixel 2. Det roliga, och nyfiken samtidigt, är att det för Pixel 3 använde det som kunde kallas Frankestein-fodralet med 5 Pixel-telefoner i en.
Han använde höljet så att han kunde ta 5 bilder av samma scen samtidigt och därmed kunna förbättra porträttläget (som anges i det här inlägget med utmärkta resultat) de su excelente Pixel 3; del que ya hemos hablado en numerosas ocasiones de su apasionante Night Sight o den Superzoom som vi kan ha i Pixel 2).
Hur Google har förbättrat stående läge för Pixel 3
Pixel 2 förlitade sig starkt på PDAF-teknik (Phase Detection Autofocus) samla in grundläggande information från skärpedjupet, genom de två PDAF-öppningarna som han brukade fokusera på. Det enda handikappet med detta system är att det inte var helt perfekt. Eftersom i vissa scener, där ett stort överflöd av horisontella linjer samexisterar, kan "systemet" som hanterar dessa PDAF-bildjämförelser för att bestämma djupet förväxlas.
För vår förståelse kan visuella element som stämmer överens med en linjär konfiguration av PDAF-öppningarna resultera i falskt negativt. Vad fick det innehållet som är viktigt för fotot det verkade närmare kameran än vad den egentligen var.
Det är i Pixel 3 där lösningen har hittats genom att lägga till ytterligare data som Google använder har kallat som semantiska och oskärpa ledtrådar. Låt oss säga vad vi alla kan göra när vi tittar på ett foto och vi kan känna till de relativa storleken på objekten och deras suddighet.
Inte så lätt som det verkar
Men för att allt skulle vara perfekt måste Google träna teknik med vad som kan kallas Frankenstein-fallet med dessa 5 pixlar. Med det har det varit möjligt att ta bilder från fem olika vinklar samtidigt.
Detta har säkerställt att källan till bilderna kommer från samma typ av hårdvara, Pixel 3, och att dessa olika perspektiv erbjuder mer data för att försöka eliminera problemet med att falla på linjerna som konvergerar i samma riktning som PDAF-öppningarna ... Hur som helst, inte alla problem har lösts, men ja, nu bestäms djupet på ett bättre sätt för större precision.
med i det fallet och dess 5 Pixel 3 har Google kunnat träna det neurala nätverket som är ansvarig för att kombinera PAF «parallax» -data och den tidigare detekteringen för att ge större precision i sitt porträttläge på alla nivåer. En annan av höjdpunkterna i denna förbättring av porträttläget är att all djupdata i inspelningarna sparas i detta läge, så fönstret öppnas för nya funktioner för utvecklare att dra nytta av.