Paxforex live server pergi mix

Paxforex live server pergi mix

Kim-eng-sekuritas-forex-trading
Opsi pemberian lisensi Mit-lisensi-atribusi
Rsi-stock-strategy


Bisa-bisa-kaya-biner-pilihan Forex trading coaches new york Pengalaman-belajar-forex-trading Forex-trade-journal-spreadsheet-excel Binary-option-signals-australia-zoo Akun live forex ea terbaik

Mengatur penyandian streaming langsung Anda Sebelum memulai streaming di YouTube, Anda perlu mendownload perangkat lunak pengkodean. Perangkat lunak pengkodean memungkinkan Anda untuk menangkap konten, termasuk desktop, kamera, mikrofon, dan banyak lagi, dan mengirimkannya ke YouTube Live untuk dialirkan ke semua penggemar Anda. Perangkat lunak pengkodean terbaik untuk Anda tergantung pada kebutuhan Anda. Kami mengatur pilihan encoders di bawah ini. Perangkat YouTube Verified Verified Perangkat Lunak Verified perangkat perangkat lunak terintegrasi dengan YouTube Live - cari saja logo YouTube di perangkat lunak dan masuk dengan Akun Google Anda. Encoder Anda akan disiapkan secara otomatis untuk digunakan dengan YouTube dan Anda siap untuk mulai streaming Rekam dan streaming dari aplikasi Gaming YouTube. Cermin perangkat seluler Anda ke YouTube. Elgato Game Capture HD60 Windows, Mac Catat dan streaming gameplay Xbox, PlayStation, atau Wii U Anda. Epiphan Webcaster X1 Perangkat HDMI Gunakan Epiphan Webcaster X1 untuk melakukan streaming kamera HD ke YouTube. Bekerja dengan kamera, mixer, atau perangkat dengan output HDMI. Perangkat lunak produksi yang berfokus pada game dan game. Template, kemampuan produksi dinamis, widget dan banyak lagi. Wirecast Go iOS (Bebas dengan pembelian dalam aplikasi) Menghasilkan siaran langsung dari iPhone Anda. Wirecast Mainkan Windows, Mac (tersedia versi gratis) Semua yang Anda butuhkan untuk melakukan streaming video langsung dari desktop Anda ke seluruh dunia. XSplit Broadcaster Windows (Versi gratis tersedia) Aplikasi mixer audiovideo revolusioner yang memungkinkan Anda membuat siaran langsung profesional dan rekaman video. XSplit Gamecaster Windows (Versi gratis tersedia) Cara termudah untuk melakukan streaming dan rekam momen permainan terhebat Anda dengan sekali klik. Sempurna untuk sharing gameplay anda. Produk yang tercantum di atas memenuhi kriteria YouTube Live Verified. Dengan pengecualian Mobile Capture, tidak satu pun produk ini dibuat oleh Google. Pastikan untuk mengevaluasi produk dan memutuskan pilihan mana yang paling masuk akal untuk Anda atau bisnis Anda. Encoders Lainnya Mencari opsi open source Coba Open Broadcaster Software. Perangkat lunak bebas dan open source untuk perekaman video dan live streaming. Jika Anda memilih encoder yang bukan Live Verified. Berikut adalah cara mengaturnya. Alirkan sekarang Cukup salin URL server dan alirkan namekey ke encoder Anda. Siaran Langsung Salin titik masuk YouTube dari Setelan Penyerapan ke pembuat enkode Anda. Nama Aliran - Ini mengidentifikasi arus Anda di server YouTube. URL Server Utama - Server utama tempat streaming Anda akan dicerna oleh YouTube. URL Server Cadangan - Server cadangan tempat streaming Anda akan dicerna oleh YouTube. Memilih untuk melakukan streaming ke cadangan disarankan namun membutuhkan dua kali bandwidth outbound (Anda mengeluarkan arus berlebihan secara simultan). Jadi pastikan Anda memiliki kapasitas bandwidth internet. Idealnya, arus cadangan Anda harus berada pada encoder fisik yang sepenuhnya berlebihan. Konfigurasikan pembuat enkode Anda menggunakan setelan penyandiaksaraan yang disarankan oleh YouTubes. Konfigurasikan sumber audio dan video Anda. Mulai encoding Jika Anda menggunakan acara yang dijadwalkan, ingatlah untuk segera memulai acara di YouTube. Apakah artikel ini membantu pada dasarnya dapat mengalirkan salah satu dari dua cara berikut: Streaming ke server lain, yang mengalirkannya kembali ke beberapa klien, atau dapat menyebar melalui UDPTCP langsung ke beberapa penerima tujuan tunggal, atau secara alternatif langsung ke Tujuan multicast Secara teoritis Anda mungkin bisa mengirim ke beberapa receiver melalui Creating Multiple Outputs namun tidak ada server built-in full blown. Server yang dapat menerima dari FFmpeg (untuk melakukan restream ke banyak klien) termasuk ffserver (linux saja, walaupun dengan cygwin itu bisa bekerja di windows), atau Wowza Media Server. Atau Flash Media Server. Red5, atau berbagai lainnya. Bahkan VLC bisa mengambil stream dari ffmpeg, lalu mendistribusikannya, bertindak sebagai server. Karena FFmpeg terkadang lebih efisien daripada VLC dalam melakukan pengkodean mentah, ini bisa menjadi pilihan yang berguna dibandingkan dengan melakukan transcoding dan streaming di VLC. Nginx juga memiliki plugin redistribusi rtmp, seperti juga apache dll dan mungkin ada lebih banyak lagi di sana untuk apache, dll. Anda juga dapat langsung melakukan streaming ke server redistribusi online seperti own3d.tv atau justin.tv (misalnya streaming desktop Anda). Juga server rtmp kemungkinan besar akan bekerja untuk menerima aliran dari FFmpeg (ini biasanya mengharuskan Anda mensetup instance yang berjalan di server). Flag -re Flag Flag FFmpegs -re berarti Membaca masukan pada frame rate asli. Terutama digunakan untuk mensimulasikan perangkat ambil. Yaitu jika Anda ingin melakukan streaming file video, maka Anda ingin menggunakannya, jika tidak, mungkin akan streaming terlalu cepat (ini mencoba melakukan streaming pada kecepatan baris secara default). Dugaan saya adalah Anda biasanya tidak ingin menggunakan bendera ini saat streaming dari perangkat live, selamanya. Heres bagaimana seseorang menyiarkan live stream (dalam hal ini perangkat penangkapan layar CaptureDesktopWindows): dengan preset FFmpeg pilihannya (libx264-myffpreset.ffpreset): Inilah yang pernah dilakukan orang lain: Dan inilah yang dilakukan orang lain. NB bahwa mereka juga (untuk perangkat directshow) harus menyesuaikan rtbufsize dalam contoh itu. Anda dapat melihat deskripsi tentang beberapa cara ini, (misalnya bufsize, pengaturan bitrate) di EncodeH.264. Berikut adalah cara Anda melakukan streaming ke twitch.tv atau layanan serupa (protokol rtmp), menggunakan ffmpeg 1.0 atau ffmpeg-git (diuji pada 2012-11-12), ini juga untuk pengguna pulseaudio: Contoh 1, tidak ada suara: Contoh 2, Layar pertama (pada pengaturan layar ganda, atau jika pada satu layar): Contoh 3, layar kedua (pada pengaturan layar ganda): Anda mungkin bisa mengurangi latency awal startup dengan menspesifikasikan frame I datang lebih sering (atau pada dasarnya selalu , Dalam kasus pengaturan zerolativitas x264), meskipun ini dapat meningkatkan ukuran bingkai dan menurunkan kualitas, lihat di sini untuk beberapa latar belakang lagi. Pada dasarnya untuk aliran khas x264, ia memasukkan bingkai I setiap 250 frame. Ini berarti bahwa klien baru yang terhubung ke arus mungkin harus menunggu hingga 250 frame sebelum mereka dapat mulai menerima arus (atau memulai dengan data lama). Jadi meningkatkan frekuensi I-frame (membuat arus lebih besar, tapi mungkin menurunkan latency). Untuk menangkap real time Anda juga dapat mengurangi latency audio di windows dshow dengan menggunakan pengaturan dwhow audiobuffersize. Anda juga dapat mengurangi latensi dengan menyetel server siaran yang Anda gunakan untuk meminimalkan latensi, dan akhirnya dengan menyetel klien yang menerima aliran untuk tidak menyimpan data masuk apa pun, yang jika tidak, meningkatkan latensi. Terkadang codec audio juga mengenalkan beberapa latency mereka sendiri. Anda mungkin bisa mendapatkan latency lebih sedikit dengan menggunakan speex, misalnya, atau opus, menggantikan libmp3lame. Anda juga ingin mencoba dan mengurangi latency di sisi server, misalnya petunjuk wowza. Juga pengaturan -menjelaskan dan -pengendalian ke nilai rendah dapat membantu arus Anda mulai lebih cepat (menggunakan ini untuk memindai aliran di muxers tertentu, seperti ts, di mana beberapa dapat muncul kemudian, dan juga untuk memperkirakan durasi, yang, untuk live Sungai, yang terakhir Anda tidak perlu anyway). Ini seharusnya tidak dibutuhkan oleh input dshow. Mengurangi cache di sisi klien dapat membantu juga, misalnya mplayer memiliki opsi -nocache, pemain lain mungkin juga memiliki beberapa jenis buffering pra-pemutaran yang sedang terjadi. (Kenyataannya adalah pilihan mplayer -benchmark memiliki efek yang jauh lebih banyak). Menggunakan encoder yang mengkodekan lebih cepat (atau bahkan mungkin format mentah) dapat mengurangi latensi. Anda mungkin kurang latency dengan menggunakan salah satu protokol point to point yang dijelaskan dalam dokumen ini, juga. Anda kehilangan keuntungan memiliki server, tentu saja. NB bahwa klien saat pertama kali memulai mungkin harus menunggu sampai frame i berikutnya dapat mulai menerima arus (misal: jika menerima UDP), maka interval GOP (-g) i-frame akan memiliki Efek pada seberapa cepat mereka dapat mulai streaming (yaitu mereka harus menerima i-frame sebelum mereka mulai). Setting ke angka yang lebih rendah berarti akan menggunakan bandwidth yang lebih banyak, namun klien akan dapat terhubung lebih cepat (default untuk x264 adalah 250 - jadi untuk 30 fps itu berarti frame i hanya sekali 10 detik sekali). Jadi yang tradeoff jika Anda menyesuaikannya. Ini tidak mempengaruhi latensi aktual (hanya waktu koneksi) karena klien masih dapat menampilkan frame dengan sangat cepat setelah dan setelah menerima frame i pertamanya. Juga jika Anda menggunakan transportasi yang lossy, seperti UDP, maka bingkai i mewakili perubahan berikutnya, maka harus memperbaiki arus jika ada masalah dari packet loss. Anda juga bisa (jika menangkap dari sumber langsung) meningkatkan frame rate untuk mengurangi latensi (yang mempengaruhi throughput dan juga frekuensi i-frame, tentu saja). Hal ini jelas mengirimkan paket lebih sering, jadi (dengan 5 fps, Anda mengenalkan setidaknya latency 0,2 detik, dengan latency 10 fps 0.1s) tetapi juga membantu klien mengisi buffer internal mereka, dll lebih cepat. Perhatikan juga bahwa menggunakan dshows rtbufsize memiliki efek samping yang tidak menguntungkan dari terkadang membiarkan frame ke buffer saat menunggu pengkodean frame sebelumnya, atau menunggu pengirimannya melalui kawat. Ini berarti bahwa jika Anda menggunakan nilai yang lebih tinggi sama sekali, hal itu dapat menyebabkan penambahan latensi jika pernah digunakan (namun bila digunakan, dapat membantu aspek lainnya, seperti mentransmisikan lebih banyak frame secara keseluruhan secara konsisten dll, jadi YMMV). Hampir pasti jika Anda menetapkan nilai yang sangat besar untuk ini, dan kemudian melihat buffer XX full dropping message, Anda mengenalkan latency. Ada juga pilihan pilihan - tawaran terbaik yang mungkin bisa membantu, biasanya untuk menerima aliran mengurangi latensi. Menguji latency Secara default, ffplay (sebagai penerima untuk pengujian latency) mengenalkan latensi yang signifikan, jadi jika Anda menggunakannya untuk pengujian (lihat bagian pemecahan masalah) mungkin tidak mencerminkan latensi secara akurat. FFplay juga memperkenalkan beberapa artefak video, dan juga melihat catatan untuk pemecahan masalah bagian streaming. Juga beberapa pengaturan yang disebutkan di atas seperti probe mungkin bisa membantu dengan cepat. Juga berguna: (bagian sinkronisasi mengatakannya untuk mencoba dan tetap realtime). Berguna adalah mplayer dengan tanda manfaatnya untuk menguji latensi (-noaudio andor -nocache mungkin berguna, walaupun saya belum menemukan --nocache untuk memberikan manfaat latensi apa pun yang mungkin sesuai untuk Anda). Menggunakan opsi keluar SDL saat menggunakan FFmpeg untuk menerima arus mungkin juga membantu melihat bingkai dengan latensi sisi klien yang kurang: ffmpeg. -f sdl ltinputheregt window title (ini bekerja sangat baik dengan -lagl nobel, meski dalam tes saya masih kurang latency daripada menggunakan mplayer -benchmark always). Ini doesnt memiliki drop frame jika Anda kehabisan pilihan cpu sehingga bisa mendapatkan cukup jauh di belakang pada waktu (mengenalkan latency lebih bervariasi). Klien penerima lain yang mungkin berguna adalah omxplayer -live Lihat juga point to point streaming section esp. Jika Anda menggunakan UDP dll Berikut adalah daftar beberapa ide lain untuk dicoba (menggunakan VBR dapat membantu, dll.) Penggunaan CPU Ukuran file Secara umum, semakin banyak CPU yang Anda gunakan untuk kompres, semakin baik gambar outputnya, atau Lebih kecil dari sebuah file output akan untuk kualitas yang sama. Pada dasarnya, cara termudah untuk menghemat cpu adalah dengan mengurangi input frame rateize, atau menurunkan output frame rateize. Anda juga bisa (jika mengambil dari sumber langsung), menginstruksikan sumber langsung untuk memberi makan arus yang lebih kecil (mis:: stream webcam 640x480, bukan 1024x1280), atau Anda dapat menetapkan pengaturan kualitas keluaran output yang lebih rendah (tingkat q), atau menentukan yang lebih rendah Output bitrate yang diinginkan (lihat EncodeH.264 untuk latar belakang). Atau cobalah codec output yang berbeda, atau tentukan parameter baru ke codec Anda (misalnya, profil atau preset yang berbeda untuk libx264). Menentukan -threads 0 menginstruksikan encoder untuk menggunakan semua core cpu yang ada, yang merupakan default. Anda juga bisa mengubah ukuran input terlebih dahulu, sebelum mentranskodenya, jadi tidak besar. Menerapkan penyaring smoothing seperti hqdn3d sebelum pengkodean bisa membantu kompres lebih baik, menghasilkan file yang lebih kecil. Anda juga bisa mengatur output frame rate yang lebih rendah tentu saja menurunkan pemakaian cpu. Jika Anda dapat hidup dalam format piksel yang sesuai dengan format keluaran Anda (misal: keluaran yuv420p dari webcam, bukan mjpeg), yang mungkin membantu penggunaan cpu, karena ini menghindari konversi ekstra. Menggunakan 64-bit bukan executable 32-bit (bagi mereka yang memiliki pilihan itu) dapat menghasilkan sedikit percepatan. Jika Anda bisa menggunakan -vcodec copy yang, tentu saja, menggunakan CPU paling sedikit dari semua opsi karena hanya mengirimkan frame secara verbatim ke output. Kadang-kadang Anda dapat mengubah format piksel entah bagaimana, seperti menggunakan rgb16 dan bukan rgb24, untuk menghemat ruang (atau yuv420 bukan yuv444 atau sejenisnya, karena 420 menyimpan lebih sedikit informasi yang dapat dikompres lebih baik dan menggunakan bandwidth lebih sedikit). Ini mungkin tidak mempengaruhi latensi. Streaming streaming audio RTP sederhana dari FFmpeg FFmpeg dapat mengalirkan aliran tunggal menggunakan protokol RTP. Untuk menghindari masalah buffering di sisi lain, streaming harus dilakukan melalui opsi -re, yang berarti bahwa stream akan dialirkan secara real-time (yaitu memperlambatnya untuk mensimulasikan sumber live streaming. Misalnya, Perintah berikut akan menghasilkan sinyal, dan akan mengalirkannya ke port 1234 di localhost: Untuk memutar stream dengan ffplay (yang memiliki beberapa keberatan, lihat di atas), jalankan perintahnya: Perhatikan bahwa rtp secara default menggunakan UDP, yang untuk besar Stream, dapat menyebabkan packet loss.Lihat bagian point to point di dokumen ini untuk petunjuk jika ini pernah terjadi pada Anda. Codec streaming yang paling populer mungkin libx264. Meskipun jika Anda streaming ke perangkat yang memerlukan implementasi dasar h264 yang lumpuh, Anda akan Dapat menggunakan profil baseline x264.Beberapa berpendapat bahwa codec video mp4 lebih baik daripada baseline x264, karena mengkodekannya juga dengan CPU kurang. Anda mungkin bisa menggunakan codec lain, seperti mpeg2video, atau benar-benar codec video lainnya. kamu ingin , Biasanya, selama receiver Anda bisa memecahkan kode, jika sesuai dengan kebutuhan Anda. Perhatikan juga bahwa mengkodekannya ke baseline x264 pada dasarnya adalah mode kompatibilitas untuk perangkat iOS yang lebih tua atau sejenisnya, lihat di sini. Codec video mpeg4 terkadang juga hadir dalam beberapa persentase kompresi dari pengaturan normal x264, namun menggunakan jauh lebih sedikit cpu untuk melakukan pengkodean. Lihat ffmpeg.zeranoeforumviewtopic.phpf7ampt631amphilitmpeg4libx264coresampstart10p2163 untuk beberapa grafik (yang mungkin sedikit ketinggalan jaman). Pada dasarnya dalam tes tertentu itu adalah 54 fps sampai 58 fps (libx264 lebih cepat), dan file libx264 berukuran 5.1MB dan mpeg4 adalah 6MB, namun mpeg4 hanya menggunakan setengah cpu untuk perhitungannya, jadi ambillah dengan sebutir garam. HTTP Live Streaming dan Streaming dengan beberapa bitrate FFmpeg mendukung pemisahan file (menggunakan segmen -f untuk output, lihat segmen muxer) ke dalam potongan berbasis waktu, berguna untuk output file streaming live streaming HTTP. Cara melakukan streaming dengan beberapa bitrate simultan yang berbeda dijelaskan di sini. Menyimpan file dan Streaming sekaligus Melihat Membuat beberapa keluaran. Pada dasarnya, Anda mungkin hanya bisa menerima dari webcam atau sumber lain dari paling banyak satu proses, dalam kasus ini Anda perlu membagi output Anda jika Anda ingin menyimpannya dan melakukan streaming secara bersamaan. Streaming dan simpan secara simultan (dan hanya encoding sekali) juga bisa menghemat cpu. Transcoding pengulangan FFmpeg juga dapat menerima dari sumber (misalnya tinggal atau UDP) dan kemudian mentranskode dan menyiarkan ulang arus. Salah satu pengguna milis menulis ini, kutipan: Dalam aplikasi saya, saya memiliki server yang menjalankan pengisapan vlc dari beberapa kamera, mengkodekannya sebagai aliran MPEG2 dan mengirimnya ke port 5000 sampai 5003 di server perantara saya (Saya harus membiarkan orang lain menjelaskannya Bagaimana mengaturnya, karena itu adalah seseorang yang memilih bagian dari proyek ini). Saya memiliki server lain yang menjalankan Wowza, dengan sebuah instance bernama live. Dan aku punya server perantara yang menyebalkan di arus MPEG2 yang masuk ke port 5000 sampai 5003, mentranskode mereka menjadi aliran mp4 dengan codec H.264 dan AAC, dan mendorong arus yang ditranskode ke Wowza. Baris perintah yang saya gunakan untuk menarik arus dari port 5000, transkode itu, dan dorong itu adalah: ffmpeg -i udp: localhost: 5000fifosize1000000ampoverrunnonfatal1 -crf 30 -preset ultrafast -acodec aac -strict experimental -ar 44100 -ac 2 -b: Sebuah 96k -vcodec libx264 -r 25 -b: v 500k -f flv rtmp: server ltwowza IPgtlivecam0 -i udp: localhost: 5000fifosize1000000ampoverrunnonfatal1 memberitahu ffmpeg untuk menarik input stream dari. Bagian setelah. Mungkin tidak diperlukan sebagian besar waktu, tapi aku memang membutuhkannya. -crf 30 menetapkan Faktor Tingkat Isi. Thats sebuah argumen x264 yang mencoba untuk menjaga kualitas video yang cukup konsisten, sementara memvariasikan bitrate selama adegan yang lebih rumit, dll. Nilai 30 memungkinkan kualitas dan bit rate agak rendah. Lihat EncodeH.264. -preset ultrafast seperti namanya menyediakan encoding tercepat. Jika beberapa tradeoff antara kualitas dan kecepatan encode, pergi untuk kecepatan. Ini mungkin diperlukan jika Anda ingin mentranskode beberapa aliran pada satu mesin. -acodec aac menetapkan codec audio (encoder AAC internal) - eksperimen ringan memungkinkan penggunaan beberapa codec eksperimental (encoder AAC internal eksperimental) -ar 44100 mengatur tingkat sampel audio -ac 2 menentukan dua saluran audio -b: sebuah 96 k Mengatur bit rate audio -vcodec libx264 mengatur codec video -r 25 mengatur tingkat frame -b: v 500k mengatur bit rate video -f flv mengatakan untuk memberikan output stream dalam paket flv rtmp: server ltwowza IPgtlivecam0 adalah tempat Stream video yang ditranskode akan terdorong untuk Menyesuaikan bitrate berdasarkan kondisi garis FFmpeg doesnt (hari ini) mendukung variasi bitrate encoding berdasarkan kondisi jaringan yang berfluktuasi. Ini memang mendukung keluaran di beberapa bitrate tetap yang berbeda, namun pada saat bersamaan, lihat Streaming dengan beberapa bitrate di halaman ini, yang secara samar-samar berhubungan. Juga jika Anda selama menangkap langsung dari directshow, perangkat input mulai menjatuhkan frame saat terjadi kemacetan, yang agak mensimulasikan bitrate keluar variabel. Mengatasi Masalah Streaming Jika Anda mendapatkan layar blackblank di klien, coba kirimkan yuv422p atau input tipe yuv420p. Beberapa server menjadi bingung jika Anda mengiriminya masukan yuv444 (yang merupakan default untuk libx264). NB bahwa saat Anda menguji setelan arus, Anda mungkin ingin mengujinya dengan VLC dan FFplay. Karena FFplay terkadang memperkenalkan artefak sendiri saat diskalakan (FFplay menggunakan penskalaan standar kualitas buruk, yang bisa tidak akurat). Jangan gunakan ffplay sebagai baseline untuk menentukan kualitas. Point to point streaming Jika Anda ingin melakukan streaming dari satu komputer ke komputer lain, Anda dapat memulai server dengan satu, lalu beralih dari FFmpeg ke server tersebut, kemudian mintalah klien terhubung ke server tersebut (server bisa berada di klien atau server Komputer samping). Atau Anda bisa melakukan point to point type stream, seperti: di mana host adalah IP penerima. Kemudian menerima arus menggunakan VLC atau ffmpeg dari port tersebut (karena rtp menggunakan UDP, penerima dapat memulai kapan saja). Jika Anda mengalami packet loss (bingkai hijau, tearingshearing - karena pengiriman UDP tidak terjamin, hal ini dapat terjadi) pertama-tama pastikan FFmpeg Anda dikompilasi dengan dukungan pthreads diaktifkan (jika memang demikian, maka ia menggunakan thread terpisah untuk menerima dari Port UDP, yang bisa menyebabkan packet loss kurang). Anda dapat mengetahui bahwa itu adalah dengan menentukan url seperti udp: host: postfifosize10000 (jika menerima fifosize, maka youre good to go). Demikian pula untuk mplayer, Anda bisa menggunakan mplayer ffmpeg: udp: host: portfifosizeXXX untuk hasil yang mungkin lebih baik pada ujung penerima (mplayer memerlukan patch terlebih dahulu, email rogerdpackgmail untuk itu, sekali adalah gist.githubusercontentrdp9075572raw002dc1b745c895693fdb160cc9be77ef31f75531possiblemplayerudpfix.diff hackey bekerja di sekitar patch, diterapkan dengan Subdirektori ffmpeg). Sebagai alternatif, tingkatkan ukuran penyangga Anda, seperti mplayer ffmpeg: udp: host: portbuffersize10000000 (defaultnya bergantung pada sistem dan biasanya terlalu rendah untuk buffering yang masuk akal. Di linux meski Anda hanya bisa mengaturnya menjadi seperti 200K max, jadi isnt ini bagus Cukup - pastikan untuk menggunakan buffer lingkaran, dan bahwa karya-karya berikut: ffmpeg: udp: host: portbuffersize10000000fifosize100000 (yang seharusnya tidak mengeluarkan peringatan, dan menyiratkan bahwa Anda memiliki benang sekunder yang mengumpulkan paket masuk untuk Anda jika ada Tidak ada peringatan) Pilihan lain adalah menggunakan beberapa jenis transmisi yang menggunakan TCP untuk transportasi Anda. (Protokol RTMP, yang populer di streaming ke server, menggunakan TCP mungkin karena alasan ini - Anda tidak dapat menggunakannya untuk streaming point to point). Salah satu pilihan untuk menggunakan TCP adalah seperti ini: yang saya duga akan mencoba dan (sebagai klien) membuat koneksi melakukan host di port itu (dengan asumsi server menunggu koneksi yang masuk). Anda bisa menerimanya seperti ini: (Basica Lly, satu sisi perlu menentukan pendengaran dan kebutuhan lainnya untuk tidak melakukannya). Untuk menggunakan dengan mplayer sebagai receiver maka akan seperti dan pada sisi mplayer (mulailah mplayer terlebih dahulu) Pilihan lainnya adalah menggunakan RTP (yang secara default menggunakan UDP) tapi dengan menentukannya menggunakan TCP: Maka Anda mungkin akan menerimanya seperti ini (ffplay Atau ffmpeg): ffmpeg juga memiliki opsi mendengarkan untuk rtmp sehingga mungkin bisa menerima aliran rtmp lurus dari satu klien seperti itu. Dengan stream berbasis tcp Anda mungkin bisa menggunakan format apapun, tapi dengan udp Anda harus berhati-hati dan menggunakan muxer yang mendukung koneksi kapan saja seperti mpegts. Jika Anda terpaksa menggunakan udp (misalnya Anda perlu menyiarkan ke port multicast karena alasan apapun), Anda mungkin bisa menghindari packet loss (mengirim lebih sedikit data atau mengirim frame yang sama berulang-ulang sehingga mereka memiliki Kesempatan yang lebih tinggi untuk diterima). Lihat juga bagian i-frame di Latency. Klien kerja p2p akhir, dengan multicast: Tautan eksternal
Trading-strategy-for-nadex
Binary-option-contest