REVUE : La caméra de Frame.IO vers le cloud et l'Atomos Shogun CONNECT par Kenny McMillan

Blog

MaisonMaison / Blog / REVUE : La caméra de Frame.IO vers le cloud et l'Atomos Shogun CONNECT par Kenny McMillan

Apr 25, 2023

REVUE : La caméra de Frame.IO vers le cloud et l'Atomos Shogun CONNECT par Kenny McMillan

Dans lequel je peux tester le nouveau moniteur/enregistreur d'Atomos qui permet

Dans lequel je peux tester le nouveau moniteur/enregistreur d'Atomos qui active la fonctionnalité Camera to Cloud de Frame.IO.

Au cours de la dernière année, j'ai testé le système Camera 2 Cloud de Frame IO dans diverses situations, principalement en l'utilisant dans le cadre de notre couverture d'événements en direct pour ProVideo, à savoir Cinegear, NAB et Adobe MAX. Au cours de ces événements, nous utilisions le Teradek Cube 655 pour transmettre des images à notre monteur au fur et à mesure qu'elles étaient tournées, ce qui fonctionnait, mais le Teradek était un peu capricieux à chaque fois que j'essayais d'en configurer un nouveau car le Cube n'était pas construit pour C2C initialement. C'était un point de friction pour moi, mais l'avalanche de Pros l'emportait sur les inconvénients mineurs d'un Con. Heureusement, du matériel spécialement conçu est maintenant sur le marché et j'ai pu tester une solution, l'Atomos Shogun Connect.

Si vous n'êtes pas familier, Camera 2 Cloud est un système dans lequel vous pouvez filmer quelque chose, et un matériel standard mais spécifique que vous avez probablement déjà sur le plateau (un Teradek, un moniteur/enregistreur, etc.) enverra des procurations de cela images, presque instantanément, à votre éditeur qui a ouvert l'onglet Frame.IO C2C dans le NLE de son choix. Chaque fois que vous arrêtez d'enregistrer, environ ce laps de temps plus tard, votre éditeur reçoit une notification indiquant qu'il y a un nouveau téléchargement de séquences et qu'il est disponible juste là pour qu'il puisse commencer une coupe. Une fois qu'ils ont obtenu les images originales du plateau, ils peuvent simplement relier les clips comme ils le feraient normalement. Frame.IO a un guide technique si vous souhaitez vérifier cela. C'est dingue pour plusieurs raisons, mais j'aime toujours citer Michael Cioni qui a dit "cela rend le processus linéaire de prise de vue puis de montage parallèle". Le temps, c'est de l'argent dans cette industrie, n'est-ce pas ? Commencer le premier montage pendant le tournage réduit considérablement la chronologie globale sans ajouter de stress excessif à l'éditeur. J'aime aussi l'idée d'avoir une autre paire d'yeux, complètement détachée de la nature trépidante d'un plateau, de regarder chaque clip au fur et à mesure qu'il arrive, de l'analyser et de faire savoir à la production que quelque chose ne va pas comme une mise au point manquée, un mauvais clip pour VFX , quel que soit le cas, en temps réel. Cela signifie également que d'autres membres de l'équipe non essentiels à la production peuvent rester à distance et offrir des notes sans avoir à être dans Video Village ou la tente DIT ou quoi que ce soit d'autre.

Maintenant, pour notre couverture d'événement, nous voulions être aussi proches que possible du "premier à diffuser", donc nous n'avons même pas utilisé le négatif original de la caméra, nous sommes allés directement sur le Web avec les proxys et devinez quoi : c'était bien. Depuis que nous utilisions mon C500, tout ce que j'avais à faire était de régler la caméra sur Rec709 (j'ai en fait envoyé une belle LUT de visualisation personnalisée que j'avais faite sur le câble HDMI, pour "pré-calibrer" le métrage) et m'assurer que les microphones étaient sur les canaux 1 et 2 et surveillaient correctement, de sorte que l'éditeur avait à la fois mon audio et celui de l'interviewé sur des canaux séparés à des fins de traitement. Comme nous tournions pour le Web et que nous n'utilisions même pas mon enregistrement interne, les séquences complètes enregistrées sur les cartes CFexpress et les proxys 2K internes sur la carte SD étaient de belles sauvegardes redondantes. Si je voulais devenir vraiment fou, j'aurais pu enregistrer chaque clip sur les deux cartes CFx, ce qui porterait le total de clips redondants dans l'appareil photo à 3 en plus de la version dans le cloud, ce qui me donnerait . C'est la sécurité d'emploi.

La première fois que nous avons fait cela, nous avions l'encodeur proxy du Teradek réglé sur 15 Mbps et nous avons trouvé que c'était trop gros pour être transféré à une vitesse raisonnable dans une zone de connexion aussi inégale qu'à l'intérieur d'un centre de congrès avec un tas de signaux wifi partout. Nous avons constaté que 10 Mbps était un équilibre parfait entre qualité et vitesse, et plus tard, nous avons constaté que 8 ou même 5 Mbps étaient parfaitement acceptables. N'oubliez pas qu'il s'agit d'interviews simples ou de pièces destinées à la caméra qui vont directement sur YouTube, nous n'avons donc pas besoin de clarté 4K ou quoi que ce soit. Cela étant dit, j'ai eu un filtre nacré sur l'objectif une fois et la floraison avait l'air plutôt mauvaise dans cet environnement et n'a pas tenu étonnamment une fois proxi-fiée, alors ne faites peut-être pas ça. Dans tous les cas, si vous allez regarder les vidéos vous-même, je parie que vous ne remarquerez aucun blocage étrange ou quoi que ce soit, même à distance, indiquant que nous utilisions un proxy à si faible débit. Dans certains cas, les choses floues semblent vraiment floues, mais tant que c'est l'arrière-plan et non le visage de quelqu'un, ça va. Pour cette utilisation hors étiquette du système, c'est un compromis parfaitement acceptable... mais que se passerait-il si vous vouliez plutôt ces négatifs d'appareil photo d'origine ? Heureusement, le RED V-Raptor (et Fujifilm XH2 avec une poignée) peut envoyer des fichiers à la résolution 8K et ProRes Proxies nativement. C'est vrai, si vous le vouliez vraiment (et sans aucun matériel supplémentaire au-delà de la caméra elle-même), vous pouvez simplement envoyer ces .R3D directement depuis la caméra, avec ou sans fil, dans les mains de vos éditeurs et maintenant vous avez un plein écran supplémentaire sauvegarde sur vos cartes et lecteurs sur le plateau en plus de tout le reste. Les DP n'ont jamais dormi aussi profondément. Attendez-vous à ce que nous testions cela cette année au NAB ! Pour l'instant, j'ai un simple Canon C500mkII et j'ai pu tester le nouveau Atomos Shogun Connect dessus. Cela nous a pris un certain temps, mais nous y sommes maintenant. Le Shogun Connect est similaire au Shogun 7 mais dispose d'un nouvel écran tactile IPS "SuperAtom" d'environ 500 nits plus lumineux que l'original arrive à 2000 nits (ou ils sont identiques, leur site Web donne des informations contradictoires), et a évidemment des capacités réseau. De plus, il semblerait que le Shogun 7 soit P3 mais le Connect est Rec709, donc il y a ça. Les deux moniteurs peuvent être calibré à l'aide du matériel habituel (dans mon cas, l'i1 Display Pro) en conjonction avec Atomos Calibrator.L'appareil lui-même a l'air premium et a démarré assez rapidement, peut-être quelques secondes.L'écran tactile est réactif, agréable et lumineux, la disposition du menu est intuitive et facile à utiliser et il démarre pratiquement prêt à basculer. Tout ce que vous avez à faire est de vous assurer que vos paramètres d'entrée sont corrects (type de caméra, surveillance audio, code temporel, etc.) et qu'il est enregistré dans le bon type de fichier pour votre cas d'utilisation (ce qui n'affecte pas Camera2Cloud donc tout fonctionne). Vos options sont ProRes, ProRes RAW, DNxHR, DNxHD et H.265 qui devraient couvrir la plupart des bases pour un travail professionnel.

En ce qui concerne les entrées physiques, vous avez un port HDMI et un port SDI 12G capables de jusqu'à 4: 2: 2 10 bits, pour les sorties, c'est la même chose, et tous peuvent faire la conversion vers l'autre, donc l'appareil est une sorte de commutateur aussi. Le port SDI enregistrera les métadonnées pour le nom de fichier de Arri et RED, mais lui et le port HDMI enregistreront tous deux la balance des blancs, l'indice d'exposition, la vitesse/l'angle d'obturation, l'arrêt F, l'ISO, le gamma et la gamme en RAW. J'ai également trouvé, quelque peu lié, que vous pouvez marquer des clips dans le menu de lecture, comme entrée/sortie, bon/mauvais, quel numéro d'angle il s'agit, personne/paysage, B-Roll, toutes sortes de choses. Je pensais que c'était cool.

Je vous laisserai lire le reste des caractéristiques spécifiques du moniteur à la fin de l'article, mais on peut dire sans se tromper que c'est un moniteur/enregistreur fantastique à part entière avec toutes les fonctionnalités d'assistance (Fase Color, Zebras, Waveform, Vectorscope , etc.) dont on pourrait avoir besoin. Parlons de Camera to Cloud.

La configuration de C2C était très simple, il me suffisait de me connecter à un réseau (j'ai opté pour une connexion filaire) et de prendre une photo d'un code QR pour connecter l'appareil à mon compte Frame.IO via Atomos Cloud. Cela ne m'a pris que 3 minutes et "a juste fonctionné", ce qui était formidable à vivre après avoir dû s'occuper du Teradek. À partir de là, j'ai juste choisi mon projet ("C2CREVIEW") et j'ai commencé à diffuser quelques clips.

Pour tester les temps de transfert approximatifs, j'ai exécuté un clip court (19 secondes) et un clip plus long (3m36s) et j'ai constaté que le transfert prenait un peu plus de temps que la durée d'exécution du clip. En d'autres termes, le clip de 19 secondes a été mis en file d'attente dans mon compte Frame.IO 11 secondes après que j'ai appuyé sur "stop" sur l'appareil photo, et a pu être visionné un total de 28 secondes après. Les clips de 3:36 ont mis 3 minutes à faire la queue et pouvaient être visionnés 44 secondes plus tard. Nous avons constaté que ces temps étaient relativement similaires lors de nos clips plus longs (10 à 20 minutes) pris lors des conférences susmentionnées que nous avons couvertes et trouvons que c'est parfaitement raisonnable, bien que votre vitesse de connexion affectera les choses, évidemment. Mon réseau domestique a une vitesse de téléchargement maximale de 20 Mbps et la connexion sans fil que nous utilisions sur le terrain était en fait beaucoup plus rapide si je me souviens bien. Spectrum Internet me frappe une fois de plus. Ma vitesse de téléchargement est en fait de 300 Mbps les bons jours, ce qui m'aide probablement à retirer rapidement les images du cloud dans tous les cas. Les clips ne sont pas téléchargés sur votre PC jusqu'à ce que vous le lui disiez, donc tous les aperçus que vous regardez sont dans le cloud et peuvent donc être visionnés rapidement comme vous le souhaitez et ne commencez pas à remplir les lecteurs soudainement à votre insu ou sans votre permission. Comme ma vitesse de téléchargement est excellente, dire à Frame de télécharger les fichiers (dans les saveurs Original, Proxy Highest ou Proxy Lowest) a pris environ 1 seconde et téléchargé en parallèle plutôt que linéairement dans le dossier que j'ai sélectionné pour eux et ont été automatiquement ajoutés à mon Projet.

À partir de là, vous éditez comme d'habitude, les clips du panneau Frame.IO étant commentés et dessinés comme vous vous en doutez, si vous le souhaitez. J'ai les 4 canaux audio du C500 inclus dans les fichiers proxy, mais si vous utilisez un son séparé, vous pouvez soit passer au moniteur via une prise 3,5 mm, soit à la caméra elle-même si vous pouvez le comprendre, soit simplement utiliser un Sound Devices 888 ou Scorpio (avec tout correctement timecodé) et ces fichiers audio peuvent également être transmis au projet C2C et seront déjà synchronisés avec la vidéo. Incroyable. Ce ne sont pas seulement les enregistreurs Sound Devices ou même le Shogun ou le Teradek qui fonctionnent avec Camera to Cloud ; il y a une tonne de matériel et de logiciels que vous pouvez utiliser, même jusqu'à l'application téléphonique Filmic Pro. Vous pouvez ajouter des CDL de Livegrade, des Dailies de ShotPut Pro et Silverstack, des rapports de caméra avec Zoelog, vous pouvez même intégrer Hedge dans votre flux de travail, en définissant le projet Frame.IO comme dossier de destination. Il semblerait que davantage d'intégrations soient ajoutées avec une certaine régularité, ce qui est formidable à voir. Bientôt, je pourrai utiliser l'un de ces systèmes pour un tournage narratif ou commercial, mais pour l'instant, cet examen plus académique devra suffire. Je dirai que l'utilisation "hors étiquette" susmentionnée de la couverture des événements et le simple fait d'utiliser les procurations comme séquences "originales" est un outil incroyable que je peux voir beaucoup de gens utiliser, y compris certaines équipes de collecte de nouvelles. La bonne chose à propos de ces appareils est que les images sont toujours enregistrées sur le lecteur du moniteur (ou sur la carte SD, dans le cas du 655), donc même si vous perdez la connexion, le matériel attendra simplement que la connexion reprenne avant de continuer le télécharger. De plus, un représentant de Frame.IO m'a dit qu'il y avait en fait 9 sauvegardes dans le cloud en cours avant d'obtenir votre clip, garantissant que vos images sont en sécurité. Dans l'état actuel des choses, j'édite la grande majorité du contenu que je tourne (je dirige une petite société de production, ce qui réduit les coûts et augmente les revenus, tu sais) mais même ainsi, quelque chose comme Camera to Cloud signifierait que j'ai ces fichiers sauvegardés à la maison avant que j'arrive, déjà organisés. Ce n'est pas rien ! J'étais récemment dans une situation où mes deux cartes CFexpress étaient corrompues (longue histoire, elles ne provenaient pas d'une marque connue, ne vous inquiétez pas) et avoir ces images à la maison m'aurait au moins épargné une partie de la panique. Ce projet était de toute façon une comédie Web en 1080p, donc les proxys étaient au moins quelque peu proches de ce que nous aurions utilisé de toute façon. Conseil de pro : connectez votre lecteur de carte à un appareil Chromebook ou Linux, d'une manière ou d'une autre, ils peuvent simplement lire les mauvaises cartes. J'ai obtenu mes images d'eux de cette façon.

J'ai l'impression d'être trop enthousiasmé par ce service pour être objectif, car je ne trouve rien que je n'aime pas à ce sujet. Les connexions sont faciles à établir, le matériel qui sort est agréable, les avancées et les intégrations sont faites tout le temps… Je veux dire, les vitesses de connexion sont certainement un facteur, mais c'est essentiellement entre vous et votre fournisseur de services. De toute évidence, l'envoi de fichiers 8K R3D via un point d'accès pour téléphone portable prendrait un certain temps, mais au moins la vitesse d'Internet est quelque chose que vous pouvez planifier ou adapter. En ce qui me concerne, cette technologie se retrouvera et devrait se retrouver sur chaque plateau avec la possibilité de l'exécuter. Même si vous n'avez pas votre éditeur là-bas en train de saliver pour que les images apparaissent dans leur bac, ce sera énorme pour le travail à distance car l'éditeur n'a pas besoin d'être dans le réservoir d'essence d'un PA pour démarrer et tout le les disques peuvent être regroupés et envoyés en un seul paquet le moment venu. Je veux dire, même si vous n'avez pas du tout de connexion en direct sur le plateau, une fois la journée de tournage terminée, vous pouvez simplement retourner dans votre chambre, brancher le Shogun sur un câble Ethernet (probablement une alimentation murale aussi, pour être sûr) et tout se déroulera sans aucune intervention de votre part. Si vous avez une heure de métrage là-bas, comme je l'ai dit, le transfert prendra probablement environ une heure. Ce n'est pas si mal. J'ai vu des cartes CF prendre plus de temps sur une connexion USB solide.

Si vous avez l'abonnement principal Adobe Creative Cloud "Toutes les applications", ou Premiere Pro/After Effects individuellement, vous avez déjà un compte Frame.IO qui comprend deux utilisateurs, cinq projets et 100 Go de stockage actif en plus de Camera to Cloud. Les étudiants et les enseignants bénéficiant d'un forfait individuel Toutes les applications auront également accès à Frame.io pour Creative Cloud. Tous les autres devront créer un compte Frame.IO, et pour obtenir C2C, vous devrez au moins opter pour le niveau "Pro". Le niveau gratuit inclut les outils de révision standard sur un maximum de 2 projets, mais vous aurez besoin de Pro, Team ou Enterprise pour obtenir la fonctionnalité C2C.

Spécifications techniques complètesSpécifications physiquesDimensions (L x H x P mm) 198mm / 7.8″ x 133mm / 5.2″ x 40mm / 1.57″Poids 730g / 1.6 lbs

Points de montage Haut : 1 x 1/4″20 ou 3/8″ avec points anti-rotation, Bas : 1 x 1/4″20 ou 3/8″ avec points anti-rotation, Droite : 1 x 1/4″20 ou 3 /8″ avec points anti-rotationTension d'entrée d'alimentation : 6,2 – 16,8v1 x NP-F / L-Series SlotLocking DC Jack (5,5 mm OD et 2,1 mm ID) Dtap via un câble D-Tap vers DC en option

Écran7" Full HD 10-Bit (8+2 FRC) SuperAtom IPS (tactile capacitif)325 PPIRec709, 2000nit +/- 10%, Edge-litCalibrable avec ColorChecker Display Pro ou Plus

Caractéristiques des couleursPresque tous les formats de journal standard et prise en charge de GamutLUT (33pt CUBE)Modes de surveillance natifs / 709 / HLG / PQ / 3D LUT

Entrée vidéo1 x HDMI 2.01 x 12G SDI8/profondeur 10 bits, 4:2:0 et 4:2:2

Sortie vidéo1 x HDMI 2.01 x 12G SDI1 x 12G SDIHDMI > Conversion SDISDI > Conversion HDMI

MétadonnéesHDMIRAW – balance des blancs, indice d'exposition, vitesse/angle d'obturation, diaphragme F stop, ISO, Gamma, gamme

Nom de fichier SDI de Arri, RED. RAW - balance des blancs, indice d'exposition, vitesse/angle d'obturation, diaphragme F stop, ISO, Gamma, gamme

Réseau1GbE Ethernet RJ45Wi-Fi 6Wireless RF (AirGlu™ SYNC Time code Network)Atomos Cloud (Capture to Cloud, Live Stream)Connectez-vous au point d'accès via Wi-Fi

Audio In/Out24-Bit / 48kHz PCMHDMI : 8 canaux 24 bits, dépendant de l'entrée SDI : 12 canaux 24 bits, dépendant de l'entrée Entrée jack 3,5 mm - alimentation 5 V Sortie jack 3,5 mm + casque

Résolution et fréquences d'images (enregistrement, moniteur et lecture)4k DCI jusqu'à 4Kp604k UHD jusqu'à 4Kp602K DCI jusqu'à 2Kp60FHD jusqu'à 1080p1208K RAW jusqu'à 8Kp30 via HDMI6K RAW jusqu'à 6Kp60 via HDMI et 6Kp30 SDI4K RAW jusqu'à 4Kp120 via HDMI / SDI3 .5K RAW anamorphique jusqu'à 3,5Kp60 via HDMI2K RAW jusqu'à 2Kp240 via SDI

Enregistrement CODECApple ProRes RAW jusqu'à 12 bits 8Kp30 / 4Kp120Apple ProRes HQ / 422 / LT jusqu'à 4Kp60Avid DNxHD jusqu'à 1080p60Avid DNxHR jusqu'à 4Kp60H.265 Enregistrement proxy C2C inclus - Activation facultative jusqu'à 4Kp60 (conteneur MOV) Prise en charge de la caméra vers le cloud d'Adobe Frame.io[Enregistrement proxy simultané ProRes RAW* / ProRes / DNx avec proxy H.265 disponible dans la future version FW]

MediaSSDmini pris en charge, CFast II via l'adaptateur AtomX CFast, Master Caddy III

Outils à l'écranForme d'onde, défilé RVB, portée vectorielle, zoom 1x 2x, mise au point maximale : couleur et curseur pour le seuil, fausse couleur avec échelle IRE, zèbre, canal de couleur isolé (bleu uniquement) zones de sécurité, guides de cadre Cine & Social (préréglé ou personnalisé ) Desqueeze anamorphique (1,25x, 1,33x, 1,5x, 1,8x et 2x) Capture d'image et superposition de peau d'oignon permettant d'économiser sans perte Full HD PNG

Commandez aujourd'hui

"… à votre éditeur qui a ouvert l'onglet Frame.IO C2C dans le NLE de son choix." Alors Avid Media Composer a un onglet C2C ? Ou cette phrase devrait-elle se lire "si vous utilisez Premiere ou Resolve" ou quelque chose comme ça ?