gaspar napisał:
@Sydon777 - jakiego programu używasz pisząc wcześniej o NLE? (Non-Linear Editing?)... Co prawda też rzadko rozjeżdża mi się AV przy łączeniu plików, ale ciekawy jestem Twoich doświadczeń z "tajemniczym" softem

Może nawet warto byłoby założyć jakiś nowy wątek dotyczący synchronizacji AV i wymiany doświadczeń forumowiczów... ?
Konkretnie to ja używam Pinnacle Studio - bo z tych co mam, to on pozwala mi najlepiej kształtować obwiednie głośności przy wszystkich ścieżkach audio (także tych ewentualnie dodawanych).
Oczywiście skrót NLE jest powszechnie używany do ogólnego określenia programu do nieliniowej edycji. Użyłem tego określenia przy korygowaniu synchronizacji A/V, bo nie chodziło mi o wskazanie konkretnego programu, tylko o zasygnalizowanie sposobu. W tym przypadku może to być naprawdę dowolny program. I absolutnie nie jest konieczne, aby odtwarzanie video w danym programie NLE odbywało się płynnie (gdy video nam przycina, a chcemy precyzyjne dopracować ściężkę dźwiękową przy dodawaniu innych strumieni np. muzyki czy komentarza - to podgląd sobie wyłączamy, skupiając się tylko na audio i kształtowaniu wzajemnych relacji w lokalnej głośności poszczególnych strumieni, aby ich mix spełniał nasze oczekiwania). Istota polega bowiem na tym, aby dokładnie zlokalizować na całej długości filmu kilka par punktów dla audio i video, co do których jest pewność, że powinny przynależeć do siebie. Najlepiej jest więc maksymalnie rozciągnąć linię czasu, aby uzyskać jak największą precyzję w lokalizacji takich par A/V. Ja wykorzystuję do tego miejsca graniczne poszczególnych ujęć, bo tu widać dokładnie gdzie jest granica obrazu, a gdzie jest granica dźwięku i jak trzeba przesunąć, aby odpowiadały temu samemu momentowi. To przesunięcie nie musi być jednakowe na całej długości filmu, więc przesunięcie całej ścieżki (ścieżek) audio może np na końcu filmu naprawić synchronizację, ale zepsuć na początku. Warto zatem przyglądnąć się jak to jest na początku, na końcu i w jakichś dwóch, trzech pośrednich punktach filmu. To obsolutnie wystarcza, aby ustalić, gdzie należałoby przeciąć ścieżkę (ścieżki) audio i które fragmenty jak przesunąć. Oczywiście miejsca rozcięć powinny obejmować audio mało zmieniające się (np dźwięki tła, a nie dźwięk osoby wypowiadającej się, którą widać). Jeżeli po przesunięciu audio w miejscu rozcięcia powstaje mała luka, to łatwo ją zapełnić wydłużeniem, jednego lub drugiego końca rozciętego audio. Te wszystkie czynności można wykonać bardzo szybko i zgrać samo audio w stosownym formacie (np AC3, LPCM). Po wmuxowaniu go do połączonego filmu z oryginalnych ujęć, nikt nie będzie mógł mieć żadnych zastrzeżeń co do synchronizacji A/V. Pamiętajmy, że przesunięcia, które były widziane w programie edycyjnym, były widziane jakby pod wielkim szkłem powiększającym, a w rzeczywistości dotyczą ułamków sekund. I powtarzam, potrzeba korekty synchronizacji jest raczej rzadka. Kiedyś nagrywałem kilkugodzinny koncert Szalom na Szerokiej - ujęcia co prawda były dość długie, ale łącznie obejmowały dużo ponad 10 GB. Po połączeniu w jedną całość nie musiałem nic korygować, choć brak synchronizacji w takim filmie byłby natychmiast zauważalny. I podobnych koncertów mam wiele nagranych i nie robiłem żadnych korekt. Ale zdarzyło mi się kilka razy, że przy nagrywaniu wielu drobnych ujęć (np weselne rozmowy i tańce do białego rana), które wymagały korekty synchronizacji A/V. Ale też mam badzo wiele filmów z nurkowania na rafie koralowej, ze zwiedzania wielu miast i różnych ciekawych miejsc na świecie, wielu wypraw górskich czy relacji pobytu na nartach, z długich przelotów balonem czy samolotem - i nie zauważyłem potrzeby korekty synchro ( nawet jeżeli były jakieś drobne przesunięcia, to w czasie oglądania nie ma odniesienia do zauważenia tego faktu). Piszę o tym szerzej, aby wykazać, że problemy z audio w połączonych plikach nie są czymś nagminnym i uciążliwym.
I przy okazji: Ja zawsze łączę pliki z oryginalnych ujęć, bo jak wspomniałem często uzupełniam filmy napisami czy komentarzem lub muzyką, a także dlatego, iż chodzi mi o tworzenie gigantycznych struktur AVCHD/BR (nawet kilkaset GB), bo wówczas w PS3 w takiej strukturze mam natychmiastowy dostęp do całej kolekcji filmów.
Pamiętajmy jednak, że jeżeli nie dodajemy napisów, muzyki czy komentarzy słownych do naszego filmu, to problem asynchronizacji A/V całkowicie znika, gdy korzysta się z gotowych playlist tworzonych przez kamery dla wielu ujęć. Takie playlisty multiAVCHD respektuje, co poważnie redukuje liczbę tytułów zachowując pliki nie łączone i źródłową synchronizację A/V. I nie jest prwadą, że w czasie odtwarzania takich plików występują jakiekolwiek przerwy na ich granicach (przynajmniej tak mogę powiedzieć na podstawie oglądania filmów multiAVCHD z playlist dla kamery Panasonic, odtwarzanych w PS3 - wygląda to tak samo, jakby pliki fizycznie były połączone).
Nie sądzę, aby zagadnienia asynchronizacji A/V zniknęły z naszego Forum, ale ja już nie będę więcej na ten temat się wypowiadał - byłby to bowiem "mielenie w kółko" tego samego co już było kilka razy (w takiej czy innej formie) napisane.