V
V
@tnoho test と lint がこけてるので確認お願いできますか?おそらく lint は外す必要があると思っています。今回の修正に影響する lint を外してもらって問題ないです。
iOS も対応済との認識。
@FromAtom 結論から先に言いますと、 Sora iOS SDK ではマイク以外の任意の音声データを送信することができません。これは libwebrtc (iOS) の音声に関する実装がデバイスのマイクと密接に結びついており、任意の音声データを送信する仕組みが用意されていないからです。 libwebrtc (iOS) の実装の問題であり、残念ながら Sora iOS SDK ではどうにもできず、有力な回避策もないのが現状です。ご期待に沿えず申し訳ありません。 なお、他社のサービスによっては iOS で任意の音声データを送信できる場合がありますが、そのようなサービスでは libwebrtc の実装にかなり手を加えている可能性があります。現在の弊社のリソースで libwebrtc の実装にカスタマイズを行い、メンテナンスを行うのは難しいので、その対応が現実的ではありません。 > 困っている点としては、 `RPBroadcastSampleHandler` を継承したClassで得られた `CMSampleBuffer` を `mainStream.send(videoFrame:...
こちらの issues は問題が解決されるまで Open にしておきます。
@FromAtom おまたせして申し訳ないです。今の所の結論としては libwebrtc 側の制約でマイク音声が流れないという認識でいます。 このマイク以外からの音声データが入力できない問題は弊社としても課題と考えておりまして、なんとか実現できないかと思い、以前1度調査をしたのですが、かなり難しい事がわかっています。 以前の調査資料の一部内容を省いたものです。 [iOS SDK: 外部audioをWebRTC経由で流す方法の調査](https://gist.github.com/voluntas/14d0300f843d1e7dc1cea333664acd23) なんとか実現をしたいと考えておりますので、もう一度、調査と検討してみます。おまたせして申し訳ありません。
@hkk sora-ios-sdk で音声を個別に取得するという仕組みは提供できていません。理由としては WebRTC 部分に利用している libwebrtc が iOS SDK に音声が渡ってくる時点で全て合成されて渡ってきてしまうためです。 この部分は弊社でも課題と考えており、現在別の方法で解決を実装中です。 解決策としてシグナリングに利用している WebSocket 経由でサーバからクライアントそれぞれの音量が定期的に送られてくるといった機能を提供する予定です。早ければ 今月末リリース予定の 18.07 に含められる予定です。 仕組みとしては WebSocket 経由で定期的にクライアント単位での音量が送られてくるという仕組みです。 ご迷惑をおかけして申し訳ありませんが、お待ち頂ければと思います。
!opus レビューして、まず要約を用意してからレビューお願いします。
!opus 指摘された点をいくつか修正したので再度レビューして
!opus 再度レビューをお願いします。
@Lazarus404 DTLS is primarily a cryptographic protocol for UDP, while Ranch provides a mechanism based on TCP. It is not strange that it does not work. Why are you trying...