新時代のソーシャルメディア・プラットフォームは、分散化、民主化、透明性という価値観を支持しなければなりません。
2021年1月6日に米国連邦議会議事堂で発生した暴力的な事件を受けて、Facebookがコンテンツの節度に関する責任を同社のOversight Boardに委託して以来、「すべては節度を含めて」という言葉が新たな意味を持つようになりました。
2018年11月にFacebookの「最高裁」として構想されたソーシャルメディア大手のOversight Boardは、2020年10月22日に正式に制定されました。
それ以来、監視委員会は、何が言論の自由であり、何が言論の自由でないかに関するFacebook自身の判断の多くを覆してきました。
監督委員会の判決の中には、ヘイトスピーチや誤ったパンデミックの主張を制限するための決定を覆すものもあります。
これは非常に形式的で淡々としたものに聞こえますが、表面の下には微妙なニュアンスが潜んでいます。
2016年、Facebookの内部プレゼンテーションでは、”過激派グループの参加の64%は、当社の推薦ツールによるものである “と主張している。
その2年後、Facebookの別のプレゼンテーションでは、彼らの “アルゴリズムは人間の脳が分裂性に惹かれることを利用している “ことが確認された。
もし、フェイスブック自身の調査が、科学的根拠に基づく正当な改革理由を示していたならば、そもそもなぜその責任を新しい「独立した」法的構造に委託するのだろうか?
間違っていなくても正しいとは言えない
今回の事件の政治的側面に踏み込むことは私の仕事ではありませんが、Facebookは、利益のために政治的偏向を悪化させないようなコンテンツの推奨とモデレーションの戦略を開発する責任があるはずです。
例えば、Facebookは先月、コミュニティのモデレーションを、物議を醸した近所付き合いアプリ「Nextdoor」をモデルにしようとする無計画な試みを発表しました。
Nextdoorは世界的に見ればFacebookよりもモデレーションの問題は少ないものの、誤報や内輪もめ、偏ったコミュニティモデレーターへの非難など、地域に密着した問題が続いており、プライベートグループのモデレーション全体としては低い水準にとどまっています。
この借り物の応急処置は、真剣に再考する必要があります。
コンテンツのモデレーションという点では、Redditはr/wallstreetbetsのようなフォーラムでコミュニティベースのupvote/downnvoteシステムを使用することで、正しい方向への一歩を踏み出しました。
RedditのCEOであるSteve Huffman氏は、Redditのモデレーションシステムはr/wallstreetbetsで「悪質な行為を見たことがない」と主張しており、コミュニティの活動の力を示しています。
コンテンツ・モデレーション・システムはFacebookよりも若干優れているものの、Redditの中央集権的な性質は、開かれた談話やアイデアの市場に脅威を与えています。
一元化の結果として、Redditのコミュニティは完全には自己統治や自己規制されていません。つまり、シャドーバンニングのような行為が行われる可能性があり、特定の状況下では言論の自由の露骨な侵害とみなされる可能性があります。
ソーシャル・クリプト・ガバナンス
新しい時代のソーシャル・メディア・プラットフォームは、cryptoの原動力である分散化、民主化、透明性の価値を支持しなければなりません。
これらの価値を具現化したcryptoソーシャルアプリケーションは、権威が支配できず、盲目的な信頼が参加の前提条件ではない、分散型の意思決定を可能にすることで、FacebookやRedditに代わる強力な選択肢となります。
これらのアプリケーションは、世界中のオープンソースコミュニティによって設計されており、社会的利益のために現状を改善することを目的としています。
これらの暗号化されたソーシャルアプリケーションは、Facebookのようなトップダウンの階層的な権力構造ではなく、ボトムアップとミドルアウトのガバナンスに依存しています。
そしてそれは、暗号化された社会正義の名のもとに行われます。
パブリック・ブロックチェーン技術をベースにしたこれらの暗号化社会アプリケーションは、「信用しない、検証する」という新しい時代を後押しし、そのための実用的な方法を提供します。
暗号化された社会的組織の例としては、DAO(Decentralized Autonomous Organization)があります。
これらのヘッドレス組織は、コミュニティが導き出したルールに基づいて運営されており、新しい機能を使用するかしないかを投票で決めることができます。
多くのDAOは、提案されたアクションに対する投票を行うための金銭的インセンティブをDAOメンバーに与えるガバナンストークンを備えています。
投票は、提案されたアクションに金銭的な権利を主張することで行われます。アクションが通過した場合、新機能はコミュニティによって実装されます。
アクションが失敗した場合、ステークされたガバナンストークンはDAOメンバーに返却されます。しかし、メンバーがコミュニティで設定されたルールを破るような行為をした場合、そのガバナンストークンは切り捨てられ、金銭的・機能的価値は無効となります。
これが、金銭的なインセンティブを持つDAOの基本的なルールです。
理想的には、同じDAOの仕組みを、より広くコンテンツ・モデレーションに利用することができます。
コミュニティのモデレーションを自主規制する
DAOと並んで、問題のあるモデレーション慣行に対するもう一つの解決策は、コンテンツ作成プラットフォームにあります。
これは、分散化されたユーザー所有の暗号ベースのネットワークです。このようなプラットフォームに参加することで、ユーザーはその共同所有者となります。
つまり、権力を握っているのは、手の届かない企業の取締役会ではなく、消費者なのです。
そのため、コミュニティの権利と責任をよりよく守ることができます。
重要なのは、暗号化によって、コンテンツ・モデレーションが歴史的に経験してきたすべての問題が解決されるわけではないということです。
批判的に言えば、暗号は、歴史的に経験してきたコンテンツモデレーションの問題をすべて解決するわけではありません。
DAOに参加するためのオンボーディング・プロセスは歴史的に難しいとされてきましたが、その経験をシームレスに合理化してアクセス性を向上させる新しい暗号ソーシャル・アプリケーションがあります。
さらに、ユーザーに仮名のユーザーネームを付与することで、非生産的な名誉毀損の攻撃を元から断つことができ、すべての人に公平な機会を提供することができます。
人々が礼儀正しく、生産的に交流するために必要なツールを提供することで、オンラインでのインスピレーションやコラボレーションの機会が広がります。
これらのツールを一緒にデザインすることが、DAOとクリプトソーシャルを独自に強力かつ公正なものにしています。
2019年10月にジョージタウン大学で行われたスピーチで、マーク・ザッカーバーグはこう言いました。
「寛容さをトップダウンで押し付けることはできない。寛容さは、人々が心を開き、経験を共有し、自分もその一員であると感じられる社会のための共有の物語を発展させることから生まれなければなりません。そうすることで、私たちは共に進歩することができるのです」。彼は正しかったが、その理由は間違っていた。
暗号化されたソーシャルアプリケーションは、これらの過ちを正すのに役立ちます。
The new era of social media platforms must uphold the values of decentralization, democratization and transparency.
The saying, “Everything in moderation, including moderation,” has taken on new meaning since Facebook outsourced responsibility for content moderation to its Oversight Board following the violent events that occurred at the United States Capitol back on Jan. 6, 2021. First conceived in November 2018 as Facebook’s “Supreme Court” for public appeals, the social media giant’s Oversight Board was officially enacted on Oct. 22, 2020.
In its time since, the Oversight Board has overturned many of Facebook’s own decisions on what is and is not free speech. Some of the board’s rulings include overturning decisions meant to limit hate speech and false pandemic claims. While this all sounds quite formal and matter-of-fact, nuance lurks beneath the surface.
In 2016, an internal Facebook presentation claimed that “64% of all extremist group joins are due to our recommendation tools.” Two years later, another Facebook presentation confirmed that their “algorithms exploit the human brain’s attraction to divisiveness.” If Facebook’s own research indicated valid, science-based reasons for reform, why outsource the responsibility to a new “independent” legal structure in the first place?
Less wrong still isn’t right
While it is not my job to wade into the politics of what happened, Facebook should be responsible for developing content recommendation and moderation strategies that do not exacerbate political polarization for profit.
For example, last month Facebook issued a haphazard attempt to model community moderation after Nextdoor, the controversial neighborhood app. While Nextdoor has had fewer moderation problems than Facebook globally, its ongoing localized issues with misinformation, in-fighting and accusations of biased community moderators still set a low bar for private group moderation as a whole. This borrowed band-aid needs serious reconsideration.
In terms of content moderation, Reddit represents a step in the right direction by using a community-based upvote/downvote system on fora like r/wallstreetbets. Reddit CEO Steve Huffman claims that Reddit’s moderation system “has not seen any nefarious behavior” take place in r/wallstreetbets, showing the power of community action.
Despite presenting a content moderation system that’s slightly better than that of Facebook, the centralized nature of Reddit still poses a threat to open discourse and the marketplace of ideas. As a result of centralization, Reddit communities are not entirely self-governed or self-regulated. This means that practices such as shadow banning may occur, which can be seen as blatant violations of free speech in certain circumstances.
Social crypto governance
The new era of social media platforms must uphold the values of decentralization, democratization and transparency — all of which are the driving forces behind crypto. Embodying these values, crypto social applications present a powerful alternative to Facebook and Reddit by enabling decentralized decision-making, where no authority can reign supreme and where blind trust is not a prerequisite for participation. They are designed by open-source communities around the globe to improve the status quo for the purpose of social good. These crypto social applications rely on bottom-up and middle-out governance instead of Facebook’s top-down hierarchical power structures. And they do it in the name of crypto social justice.
Based on public blockchain technologies, these crypto social applications empower a new era of “don’t trust, verify” — and provide a practical way to do so. Examples of crypto social organizing include decentralized autonomous organizations, or DAOs. These headless organizations operate based on community-derived rules that are employed to vote new features and functionality in and out of use.
Many DAOs feature governance tokens which give DAO members financial incentives to vote on proposed actions. Voting is done by staking your financial claim to a proposed action. If the action passes, the new feature is implemented by the community. If the action fails, staked governance tokens are returned to DAO members. However, if a member acts in a way that breaks the community-set rules, their governance tokens are slashed and voided from having any financial or functional value. These are the basic rules of financially incentivized DAOs. Ideally, some of the same DAO mechanics can be used for content moderation more broadly.
Self-regulating community moderation
Along with DAOs, another solution to problematic moderation practices can be found in content creation platforms — decentralized, user-owned, crypto-based networks. By joining such platforms, users become their co-owners. This means that the power rests in the hands of consumers as opposed to an out-of-touch corporate board, thus better upholding the rights and responsibilities of the community.
Critically, crypto does not solve all the problems that content moderation has experienced historically. What it provides is a technological basis with which community mechanics can be organized from a bottom-up and middle-out perspective that empowers free speech in safe ways.
While the onboarding process to participate in DAOs has been historically difficult, there are new crypto social applications that seamlessly streamline the experience to improve accessibility. Moreover, by equipping users with pseudonymous usernames, these new onramps can cut off unproductive ad hominem attacks at the source, providing fairer opportunities for all.
Giving people the tools they need to interact civilly and productively opens up opportunities for online inspiration and collaboration. Designing these tools together is what makes DAOs and crypto social both uniquely powerful and just.
In an October speech of 2019 at Georgetown University, Mark Zuckerberg said: “You can’t impose tolerance top-down. It has to come from people opening up, sharing experiences, and developing a shared story for society that we all feel we’re a part of. That’s how we make progress together.” He was right, but for the wrong reasons. Crypto social applications can help right those wrongs.