A Blockchain Balkanization Research elkerülése

Által Everett Muzzy és Mally Anderson

Az interoperabilitás prioritása

Ez a darab az első egy sorozatban, amely az interoperábilis funkcionalitás állapotát és jövőjét vizsgálja a blokklánc ökoszisztémában. Az „interoperabilitást” itt úgy definiáljuk, mint a blokkláncok azon képességét, hogy harmadik felek segítsége nélkül cseréljenek adatokat a platformok között – ideértve a láncolaton kívüli adatokat és a tranzakciókat is. A Web2 architektúra előrehaladásának vizsgálatával a korai elmélettől a tömeges elfogadásig a sorozat azt állítja, hogy a blokklánc protokoll átjárhatósága nem más, mint alapvető követelmény a technológia teljes potenciáljának kiaknázásához. A sorozat bemutatja, hogy az ökoszisztémát jelenleg fenyegeti a „balkanizáció” – vagyis. összekapcsolt rendszerek sorozatává válva, amelyek egymás mellett működnek, de el vannak hallgatva egymástól – a verseny és a kereskedelmi nyomás ellenére. Annak érdekében, hogy az ökoszisztéma prioritásként kezelje az interoperabilitást, létre kell hoznia egy biztonságos, radikálisan decentralizált és megbízhatatlan elszámolási réteget, amelyre az egyidejűleg működő blokkláncok lehorgonyozhatják tranzakcióikat. Tekintettel a blockchain rendszerek jelenlegi állapotára, az Ethereum felépítése leginkább hasonlít ahhoz, amit ez az univerzális gyökérlánc megkövetel.

A balkanizáció kockázata

A mai Web2 architektúra problémái – különösen a felhasználói adatok elhallgattatása, sebezhetősége és helytelen kezelése – az ipar korai internetes értékektől való eltérésére vezethetők vissza, amely eredetileg az interoperabilitást helyezte előtérbe a fenntartható és méltányos, a webhez kapcsolódó világ kulcsaként. A jelenlegi ütemben a blokklánc-ökoszisztémát hasonló „balkanizáció” fenyegeti, ahol a protokoll-interoperabilitás prioritástalan, mivel a vállalatok versenyben versenyeznek, hogy saját blokklánc-használati esetüket gyorsabban bemutassák, mint versenytársaik. A kockázat az, hogy a mainstream elfogadásra nehezedő nyomás megérkezhet, mielőtt a Web3 infrastruktúra kellően átjárható és biztonságos lesz ahhoz, hogy az eredeti építészek teljes elképzelését megnyilvánulhassa. A Web3 hasonlóan nézhet ki, mint a Web2 manapság a pénzügyi kirekesztés, az információk elhallgatása és az adatok bizonytalansága szempontjából – ehelyett blokkláncok sorozata írta alá, amelyek versenyképes tervezéssel nem működnek együtt protokoll szinten.

A korai internet tanulságai

A webet az 1960-as évektől kezdődően államilag finanszírozott, tudományos kutatási projektként fejlesztették ki, hogy növelje az emberek képességét információk létrehozására, továbbítására és megosztására. Az online információk korai ismétlése alapvető szöveg és képek formájában történt, amelyeket összekapcsol és megoszt a hiperhivatkozások hálója. Azóta az interneten az „információ” úgy fejlődött, hogy képviselje az eszköz tulajdonjogát (különösen a pénzt), a felhasználói profilokat és az identitást (konkrétan a személyazonosságának szétszórt digitális töredékeit)..

Függetlenül attól, hogy a digitálisan ábrázolt információ definíciója mennyire széles körűvé vált, az online információkezelés elmélete a korai webelméletben rejlik. Az információátadás következő fejlődésének felépítése során a korai internetes úttörők arra törekedtek, hogy az interneten az információ az emberi viselkedés természetes mintáit utánzó módon áramoljon. Tim Berners-Lee, a világháló feltalálója küldetését egy olyan webstruktúra felépítésére helyezte, amely lehetővé teszi az információk humanisztikus továbbítását ellentétben a vállalat hierarchikus felépítéséhez – addig a pontig az egyik domináns struktúra, amelyen keresztül az emberek nagy mennyiségű információt állítottak elő és kezeltek. Míg a vállalat merev, felülről lefelé épített struktúrája igyekezett megállapított, mintázott és nyomon követhető módon diktálni az információmozgást, az emberek kommunikációjának és megosztásának valósága messze rendhagyóbb és amorfabb volt. A természetes peer-to-peer társadalmi információcsere utánzása érdekében Berners-Lee egyszerűséget ajánlott a webarchitektúrában. A digitális rendszer puszta csontjainak biztosításával az információk a legtermészetesebb módon – tehát skálázható módon – növekedhetnek és fejlődhetnek. Abban a percben, amikor a „tárolás módszere… elhelyezi [a saját korlátozásait]” arról, hogy miként lehetne a dolgokat átvinni, az információk szenvednek. Berners-Lee megerősítette meggyőződését, miszerint a webnek utánoznia kell a természetes struktúrákat, azzal, hogy a web növekedését úgy írja le, hogy „sejteket képez a globális agyban” [forrás] és remélem, hogy egyszer „tükrözheti” az emberek napi interakcióját, társasági életét és életét [forrás].

A skálázható, humanisztikusan továbbított digitális információk elérésének célja egy kulcsfontosságú koncepciótól függ: a „végponttól végig” [forrás]. A „végponttól végig” hatás azt jelentette, hogy az internet felhasználói (vagyis azok, akik egy információ továbbításának mindkét végén voltak) következetesen tapasztalták ezt az információt. Az embereknek képesnek kellett lenniük olyan ismétlődő viselkedésmódok elfogadására, amelyek lehetővé teszik számukra az információk nagyjából azonos módon történő lekérését, feldolgozását és benyújtását minden alkalommal, amikor interakcióba léptek a webszel. Másként fogalmazva a technológia amely a fogyasztót szolgálta, egy információnak ezt következetes módszerrel kell megtennie időről időre, földrajzi területek és tartalomtípusok között.

A végponttól végpontig hatás két módon érhető el: 1) Harmadik felek közvetítőként telepedhettek le, és szolgáltatásokat nyújthattak az információk egységes formában történő nyújtása érdekében, ahogy azokat az A pontról B pontra továbbították. Ezek a vállalatok és mérnökeik „Meg kell tanulniuk a rendszerek tervezésének művészetét”, hogy az inkompatibilis protokollokat elválasztó digitális határokon keresztül tárgyaljanak és ellenőrizzék az információk átadását. 2) A második lehetőség az volt, hogy minden protokoll, amelyen keresztül az információk átadására lehet szükség, interoperábilisak legyenek, biztosítva, hogy az adatok zökkenőmentesen továbbíthassák a felhasználókat a felhasználók között olyan akadályok nélkül, amelyek megsértése további tárgyalásokat igényel. A natív protokoll-interoperabilitás automatikusan létrehozná a „végpont végét”, ahelyett, hogy kizsákmányoló harmadik felekre támaszkodna, hogy biztosítsa ezt az egységet a színfalak mögött.

E két módszer közül az interoperabilitás volt a preferált megközelítés azok számára, akik a korai webfejlesztés során a díjat vezették. Berners-Lee ezt a célt gyakran „egyetemességként” írta le, és azt sugallta, hogy a Web jövője különálló protokollok sorozatát fogja magában foglalni, de mind ugyanabban a makrokozmoszban léteznének, biztosítva ezzel az összeférhetőséget. Berners-Lee arra kérte a technológusokat, hogy az egyetemes interoperabilitást fontosabb célnak tartsák, mint a „divatos grafikai technikákat és a komplex extra szolgáltatásokat” [forrás]. Kevésbé fontosnak tartotta, hogy engedjen a növekvő profit iránti étvágynak (amely igényes grafikát és extra lehetőségeket igényelt), mint a protokolltervezésre összpontosítani.

Ahogy a kereskedelem felgyorsult és az internet nyilvános eredete fokozatosan alábbhagyott, új ösztönzőket vezetett be a korábban jórészt akadémikus ipar számára. Ennek eredményeként egy sor elhallgatott szabvány kezdett kialakulni, amikor a magánvállalkozások egymással szemben felülmúlva versenyeztek, ami a web ökoszisztémájának helyrehozhatatlan széttöredezésével fenyegetett. A különálló, egyedi rendszerek létrehozása ellentétes volt a hosszú távú gazdasági optimalizálással. Az internet egyik alapdokumentumában Paul Baran 1964-ben megjegyezte, hogy „A kommunikációban, akárcsak a közlekedésben, a leggazdaságosabb, ha sok felhasználó számára közös erőforrást osztanak meg, nem pedig mindegyiknek, hogy saját rendszerét építse fel”. 1994-ben megalakult a Világháló Konzorcium az egész iparra kiterjedő szabványok kidolgozása érdekében annak biztosítására, hogy az interoperabilitás üzenete továbbra is a web fejlesztésének fő prioritása maradjon. A WWW Konzorcium célja, hogy „kiaknázza a web teljes potenciálját” [forrás] attól a meggyőződéstől függött csak az interoperabilitás révén – amelyet a protokollok közötti szabványosítás bevezetésével érnek el – teljes mértékben ki lehetne használni.

 

A sejteket alkotó tim bernerek a consensys kutatását idézik

 


Információs ösztönzők váltása

A webes tartalomkezelés pillantása megrendítő példát mutat az interoperabilitás és a szabványosítás korai ideológiájára. A tartalomkezelés kérdését – nevezetesen az érték megragadását, a tulajdonjog megalapozását és a szerzői jogok védelmét – gyakran hívták fel az Internet lehetséges hiányosságainak feltárására, és arra késztették a fejlesztőket, a szabályozókat és a technológusokat, hogy már korán kezdjék meg ezek megvitatását..

Az „információ szabad akar lenni” gyakran Stewart Brand-re vezethető vissza egy 1984-es kongresszuson. Az információnak, gondolkodásmódnak megfelelően, nyíltan és szervesen kell terjednie digitális formában, ugyanúgy, mint a faj tagjai között az emberiség történelmében. A web lehetővé tette az információk majdnem végtelen terjesztését, biztosítva a végső helyszínt, hogy kifejezze a szabadság iránti hajlandóságát, az eddigi analóg kommunikációs módszerek határain túl. A web az információk továbbításának nagyított szakaszát mutatta be, de ezt a tulajdon, a szűkösség és az érték egyértelmű meghatározásának árán tette meg, amelyet a globális piacok megszoktak. A web lehetővé tette az információk ingyenes megjelenését, ugyanakkor feltárta azok gazdaságos kiaknázásának lehetőségét is. (Ez az információs technológiai fejlődés más korszakaiban is igaz volt, például a XV. Századi nyomtatási forradalomban és a huszadik század elején a rádióban, hatványozottan kisebb léptékben.) Ez a következmény Brand idézetének második és ritkábban hivatkozott részéhez kapcsolódik: „Az információ drága akar lenni” [A Media Lab, oldal 202-203]. Visszatekintve, Brand érvelését pontosabban úgy fogalmazhatjuk meg, hogy „az információ akar lenni értékelik amiért érdemes ”, ami azt jelenti, hogy néha – bár nem mindig – drága. Az információáramlás új mintái és képességei, amelyek a web által működnek, lehetetlenné tették a digitális információk megfelelő értékelését. Például nem lehet pontosan nyomon követni egy tartalom eredetét, hogy az eredeti alkotója megfelelő kompenzációt kapjon. A tartalomra vonatkozó szabványos tulajdonjogi protokollok hiánya lehetővé tette harmadik felek számára, hogy belépjenek és biztosítsák ezt a szabványosítást – vagy pontosabban a szabványosítás illúzióját – azáltal, hogy megkönnyítik a végtől végig hatása, amelyet meghatározónak találtak az internet méretarányos használata szempontjából. És ezt mindenfajta információért megtették, nemcsak a vizuális és az írott tartalomért. A háttérprotokoll-interoperabilitás illúzióját növelte a felhasználók által a kezelőfelületen tapasztaltak egyre növekvő sterilizálása. Kate Wagner, aki a korai internetes tervezési sajátosságok eltűnéséről írt a 90-es és 2000-es évek elején, utal a natívan népies webesztétika „… elhaló zihálására, amelyet az oldal megjelenésének vagy megjelenésének korlátozásának hiánya határoz meg. ”[forrás]. A fogyasztók felé fordított web egyre szabványosultabbá vált, de a háttér továbbra is elhallgatott, következésképpen megérett az adatkihasználásra és a profitra.

Amint harmadik felek beléptek és döntő fontosságúvá váltak az információk szokásos továbbítása szempontjából, elkezdték diktálni az információk „értékét”. Ez a korai gazdasági dinamika ösztönözte a mesterséges információhiány kialakulását. Az információ természetes hajlandóságának megtagadása a mesterségesen magas árcédulákat hozta létre, különféle adatokhoz társítva, ahelyett, hogy lehetővé tette volna az információk értékének értékelését. Ezek a vállalatok jól teljesítettek az általuk ellenőrzött információk áramlásának korlátozásával. Megpróbálják kezelni az információkat, mint a legtöbb más árucikket a Földön, ahol az egyszerű kereslet-kínálat elmélet előírja, hogy a szűkösség egyenlő az értékkel. Ahogy John Barlow megjegyezte 1994-ben az „Ötletek gazdasága” című cikkében, „a digitális technológia azonban elválasztja az információkat a fizikai síktól” [forrás]. Azáltal, hogy az információt fizikai termékként kezeli, és ellenőrzi vagy korlátozza a szabad áramlás képességét, harmadik felek elnyomják az információk egyedi minőségét – értékesebb a gyakoribb ez. “Ha azt feltételezzük, hogy az érték a szűkösségen alapszik, ahogyan a fizikai tárgyakkal is” – állítja Barlow, a világot veszélyeztetné az információk valódi emberi természetével ellentétes technológiák, protokollok, törvények és gazdaságok kifejlesztése [forrás].

“Az [Internet] jelentősége nem a hálózati technológiában rejlik, hanem az emberi gyakorlatokban bekövetkezett alapvető elmozdulásokban” – írta Peter Denning egy 1989-es elmélkedésben az Internet első húsz évéről [forrás]. A nap végén a Web2 elterjedt, mert a végpontok közötti hatást sikeresen megvalósították, elérték a tömeges alkalmazást és a mindennapi felhasználók számára illúzió egyetlen, globális internet. Noha az interoperabilitás Berners-Lee és más korai internetes építészek alapvető törekvése volt, a végfogyasztóknak (és így a belőlük profitálni kívánó vállalatoknak) csak az számított, hogy az internet a lehető leggyorsabban a mindennapi hasznára váljon. Információ megjelent szervesen és humanisztikusan utazni; tartalom megjelent beszerzése és ellenőrzése; és adatok megjelent hogy széles körben elérhető és megbízható legyen. A színfalak mögött azonban ugyanazok a harmadik féltől származó vállalatok (vagy leszármazottaik) a kezdetektől fogva az interneten keresztüli információátadás kapui őrzői maradtak – figyelemre méltó következményekkel.

A korai internetes elméleti szakemberek nem kívánták, hogy a technológia örökre független maradjon a magántársaságoktól. Valójában az internet lehetőségeinek kiaknázása azon a feltételezésen alapult, hogy a széleskörű használat iránti vágy a magánvállalatokat arra ösztönzi, hogy lépjenek be és finanszírozzák a gyorsabb és globálisabb fejlődést. A magáncégek érkezése azonban kiváltotta az ökoszisztéma esetleges balkanizálódását.

A balkanizáció megjelenése

Az Internet építészeinek eredeti elképzelése egy nyitott, elosztott és decentralizált „hálózatok hálózata” volt [forrás]. Az amerikai állami kutatási dollárok milliárdjainak finanszírozásával és kezdetben tudományos projektként fogalmazták meg az internet fejlesztésének első húsz évét viszonylagos homályban. Kezdeti finanszírozói, nevezetesen az ARPA (az Advanced Research Projects Agency, amely később DARPA lett) és a National Science Foundation (NSF) nem feltétlenül számított profitra a projekttől, ezért a korai internet lassan és szándékosan skálázódott [forrás].

A hálózatépítés első példái praktikusak voltak: a kutatóegyetemeken a nagyszámítógépek túlzottan drágák voltak, ezért az erőforrások megosztása közöttük jobb kutatást eredményezne. A kormány ellenőrizte ezeket a hálózatokat, vagyis minden résztvevőt arra ösztönöztek, hogy osszák meg kódjaikat a folyamatos finanszírozás biztosítása és a nyílt forráskódú etosz fenntartása érdekében. A protokollok a hetvenes évek közepén jelentek meg, és nem sokkal később gyakorlati okokból kialakultak az interoperábilis digitális kommunikációs szabványok: a gépeknek képesnek kellett lenniük egymással beszélgetni. 1985-re az NSFNET hálózat összekapcsolta az összes fő egyetemi nagygépet, és ez az internet első gerincét képezi. Az 1980-as évek végén több résztvevő érkezett erre a gerinchálózatra – elég ahhoz, hogy a forgalom kezdje meghaladni a hálózat.

A hálózat torlódása volt az elsődleges probléma, mivel a technológia iránti aktivitás és lelkesedés fokozódott. 1991-ben Vinton Cerf – a TCP / IP protokollok társtervezője és egy másik nagy internetes építész – elismerte az infrastruktúra méretezésének növekvő kihívását: „A modern telekommunikációs technológia forrásban lévő erjedésében kritikus kihívás annak meghatározása, hogy az Internetting architektúra hogyan fejlődött az elmúlt 15 évben meg kell változnia ahhoz, hogy alkalmazkodjon az 1990-es évek gigabites sebességű technológiáihoz ”forrás]. Az NSFNET betiltotta a kereskedelmi tevékenység tilalmát, de ez még mindig nem volt elegendő a forgalom korlátozásához. A tilalom a magánhálózatok párhuzamos fejlesztését eredményezte a kereskedelmi tevékenységek befogadására.

Erre a párhuzamos hálózati trendre és az NSFNET megterhelésére reagálva az NSF elnöke, Stephen Wolff az infrastrukturális réteg privatizálását javasolta. Ez enyhítené a torlódásokat azáltal, hogy magánberuházásokat hozna a hálózat kapacitásának növelésére, lehetővé tenné az NSFNET számára, hogy a magánhálózatokkal egyetlen együttműködő rendszerbe integrálódjon, és felszabadítsa a projektet a kormányzati ellenőrzés alól, hogy az internet tömegközépgé válhasson. 1995-re az NSFNET teljesen megszűnt, és a magánhálózatok ökoszisztémája lépett a helyére. Ennek nyomán öt vállalat (UUNET, ANS, SprintLink, BBN és MCI) jelent meg az Internet új infrastrukturális rétegének kialakításában. Nem voltak valódi versenytársaik, nem volt szabályozási felügyeletük, politikájuk vagy irányításuk nem irányította kölcsönhatásukat, és egyetlen kormányzati szerv sem írta elő a minimális teljesítményre vonatkozó követelményeket. Ez a teljesen nyitott, versenyképes környezet, bár meglehetősen példa nélküli volt, kevéssé ellenezte a korai internet gondolatvezetőit, mert mindig azt szándékozták, hogy a hálózatokat átadják a magáninfrastruktúra-szolgáltatóknak, amikor elegendő általános érdek fűződik ezek fenntartásához. Más szavakkal: ők várt a váltás ösztönzői, amikor a nyilvánosság magáévá teszi a technológiát. A web protokoll- és linkrétege viszonylag homályban alakult ki; csak a hálózati vagy az infrastruktúra szintjén alakultak ki piacok.

Az öt új nagy szolgáltató helyi és kisméretű hálózatokat csatlakoztatott és integrált az Egyesült Államokban. Lényegében ezek a vállalatok közvetítőként kezdték és tényleges szolgáltatókká váltak annak a ténynek köszönhetően, hogy az átvitelük egy bizonyos pontján felügyelték a rendszer összes adatait. Ez a szervezet ellentétesen központosítottnak tűnik az elosztott, rugalmas rendszerarchitektúra addig történő rangsorolásához képest, de az internetes építészek tudtak erről. Mivel egynél több szolgáltató volt a játékban, a privatizáció hívei úgy vélték, hogy elegendő verseny állna fenn az infrastrukturális szolgáltatási réteg balkanizálódásának megakadályozására. Az NSFNET lebontását követő években a gyakorlatban nem ez volt a helyzet. Az infrastrukturális réteg privatizálása azt eredményezte, hogy a szolgáltatók oligopóliumába kerültek, és lényegében teljes egészében titokban, az információk mozgásának és átbocsátásának ellenőrzése révén ellenőrzik az egész Internet adatáramlását. Megadhatnának egymásnak parancsikonokat az általános hálózati torlódások leküzdésére, és kedvezményes bánásmódot nyújthatnának a gyorsabb tartalomszolgáltatásért fizető webhelyek számára. A szolgáltatók közötti megállapodások teljesen ismeretlenek voltak, mivel nem voltak kötelesek nyilvánosságra hozni feltételeiket, így a kisebb szolgáltatói hálózatok nem versenyezhettek a piacon.

Tehát az 1990-es évek elején az internet balkanizálódásának elkerülésére tett kísérlet végül véletlenszerű, szélsőséges centralizációt eredményezett, amelynek során egy öt infrastruktúra-szolgáltatóból álló kabál megszerezte az irányítást a teljes protokollréteg felett. Egy értelemben ez tanulság a natív kormányzási protokollok és az ésszerű szabályozás fontosságáról az új technológiák egészséges piacainak kialakításában. A jó szabályozás, amely tisztességesebb, nyíltabb versenyt eredményez, végül gazdagabb piacot eredményez. A közérdek bizonyos mértékű megtartása visszacsatolási hurkot vezet be az új technológia fejlődésének ellenőrzéséhez, miközben skálázódik. A magáninfrastruktúra-réteg egyik hiányossága, ahogy formát öltött, az volt, hogy az NSFNET-ből átvett elégtelen figyelmet a biztonságra, ahol ez még nem volt olyan kritikus aggodalomra ad okot; sem biztonsági mechanizmusok, sem R&A biztonsági kérdésekbe való belemerülés általában ma is fennálló sebezhetőségeket vezetett be. A szándékos kormányzás szinte teljes hiánya az úgynevezett „hálózati semlegesség” rendkívüli hiányát is eredményezte, ezért a hálózati sebességet igazságtalanul prioritásként kezelik a legmagasabb ajánlatot tevővel szemben, és a hálózatokhoz való összességében jelentősen egyenlőtlen hozzáférést biztosítanak. A balkanizáció megakadályozására tett intézkedések ehelyett egy teljesen, de visszafordíthatatlanul balkanizált infrastrukturális réteget eredményeztek.

Az 1990-es évek eleji szolgáltatói központosítás tanulságai meglehetősen relevánsak a blockchain ökoszisztéma-fejlesztés mai szakaszában. Az interoperabilitásra vonatkozó szabványok kidolgozása valószínűleg a funkcionalitás szükségessége miatt lép fel nagymértékben. Ez igaz volt az Internet protokollrétegére, és valószínûleg a Web3-ban is valóra válik, amikor elegendõ hálózati nyomás és ezért gazdasági ösztönzõk jelennek meg. De mivel a Web protokollrétege állami finanszírozású volt, és ezért több mint húsz éve mentes a profitvárakozásoktól, a blokkláncok első hulláma alapvetően pénzügyi természetű, és a pénzügyi ösztönzők kezdettől fogva jelen voltak és egészen a a protokoll réteg. Tehát bár vannak közös minták a Web2 és a Web3 fejlesztésében, a balkanizáció kockázata az ütemtervük nagyon különböző pontjain merül fel.  

 

balkanizált idézet

 

Az interoperabilitás prioritása

Annak ellenére, hogy létezésének jóslatai évtizedek óta léteznek, és a kriptográfiai elméletek évtizedekkel hosszabbak, a blokklánc-technológia a gyakorlatban – nemhogy programozható, használható blokklánc-technológia – még mindig kialakulóban van. Ilyen korai szakaszban fontos a heves innováció és a verseny az ökoszisztéma növekedése szempontjából. A mai korai blokklánc-iparra ugyanakkora nyomás nehezedik, mint az 1980-as és 90-es évek korai internetes iparára. A blockchain lehetősége világváltoztató – és ezért a kockázat is.

A blockchain technológia lehetősége, amint ez a sorozat érvelni fog, az összes nagyobb blockchain projekt közötti átjárhatóságtól függ, mivel alapvető a protokollok kidolgozásához. Csak annak biztosításával, hogy az összes blokklánc, függetlenül attól, hogy teljesen független-e vagy heves versenyben van-e egymással, beágyazza-e a kompatibilitást az alapfunkcióiba, képes-e a technológia képességeit átfogóan felhasználni és következményként átfogni.

Azzal a puszta médiaerővel, hogy a kriptográfia, a tokenek értékesítése és a tokenek piaca az elmúlt két évben megcsappant, a blokklánc-vállalatokra hatalmas nyomás nehezedik, hogy bizonyítsák a technológia használatát, jövedelmezőségét és forgalmazását. Ilyen módon azok az ösztönzők, amelyek arra késztették az internetet, hogy prioritássá tegye az interoperabilitást, és a technológia mindennapi használhatóságára összpontosítson, nem különböznek a maitól. Ha van valami, akkor ma az a képességünk, hogy mindig kapcsolatban legyünk és valós idejű frissítéseket kapjunk a világ bármely pontján, biztosítja, hogy a blokklánc ökoszisztéma alatt legyen több nyomás a kereskedelmi képességeinek bemutatására, mint a korai internet, a fejlesztés hasonló szakaszában. Amint a vállalatok versenyben vannak, hogy “jobbnak” vagy “piacképesebbnek” bizonyítsák magukat, mint a többi létező protokoll, felhagynak az interoperabilitással annak érdekében, hogy a Berners-Lee szavainak újrafeldolgozására összpontosítsanak a “divatos grafikai technikákra és az összetett extra lehetőségekre”. inkább a rövidlátó befektetők és a fogyasztók számára.

Az azonnali funkcionalitást ígérő verseny gazdaságilag hatékony, de folytatása veszélyeztetheti a blokklánc-ipar teljes fejlődését. Ha a vállalatok továbbra is figyelmen kívül hagyják az interoperabilitást, és ehelyett mindegyik megalkotja saját szabadalmi blokkláncát, és megkísérli azt állítani egy állítólagos piaci versenytárssal szemben, akkor az ökoszisztéma évek alatt nagyon hasonlíthat az interoperábilis internet kezdeti napjaira. Maradna egy elhallgatott blokkláncok szétszórt gyűjteménye, mindegyiket gyenge csomópont-hálózat támogatja, és hajlamos támadásra, manipulációra és központosításra.

A blockchain technológia interoperábilis jövőjének elképzelése nem túl nehéz. A kép megfestéséhez szükséges összes anyag és kép a korai internetes doktrínában létezik, és e cikk első szakaszában már tárgyaltuk. Csakúgy, mint a mai Internetben, a Web3 adatainak legfontosabb minősége a „végponttól végig” hatás. A Web3-mal interakcióban álló fogyasztóknak zökkenőmentes interakciót kell tapasztalniuk, függetlenül attól, hogy milyen böngészőt, pénztárcát vagy weboldalt használnak a technológia tömeges átvételre történő skálázására. Ahhoz, hogy ez a cél elérje a célt, meg kell engedni, hogy az információ szerves, humanista módon áramoljon. Meg kell engedni, hogy szabad legyen. Egy mai blockchain azonban van nem egy másik blokkláncban esetlegesen létező információk ismerete. A Bitcoin hálózaton élő információknak nincsenek ismereteik az Ethereum hálózaton élő információkról. Az információtól tehát megtagadják a természetes vágyat és a szabad áramlás képességét.

Az információ elnémításának következményei abban a blokkláncban, amelyben létrehozták, egyenesen az Internet történelemkönyvéből származnak. Az internet az infrastruktúra szintjén központosult, mivel a közönség lelkesedésének és a tömeges elfogadásnak megfelelő nyomás nehezedett. Ha a Web3 ökoszisztéma eléri ezt a pontot, mielőtt a protokollok átjárhatósága eléggé elterjedt, ugyanez fog ismétlődni. A natív blokklánc-interoperabilitás nélkül harmadik felek lépnek fel az információk egyik blokkláncból a másikba történő átvitelének kezelésében, értéket nyerve maguknak a folyamat során, és létrehozzák azt a fajta súrlódást, amelyet a technológia szüntetni kíván. Hozzáférhetnek és ellenőrizhetik ezeket az információkat, és képesek lesznek mesterséges szűkösséget és felfújt értéket létrehozni. Az ipar által oly gyakran előidézett blockchain alapú internetes jövő jövőképe semmi sem interoperabilitás nélkül. Enélkül egy olyan jövőben találjuk magunkat, amelynek globális hálózata szinte megegyezik a ma domináns Web2-tájon. A mindennapi fogyasztók továbbra is élvezni fogják a zökkenőmentes és következetes interakciókat a Web3-zal, de adataik nem lesznek biztonságosak, identitásuk nem lesz teljes, és pénzük sem lesz az övék.

Előretekintve

Mindez nem jelenti azt, hogy az ipar teljesen megfeledkezett volna vagy elhagyta az interoperabilitás fontosságát. A koncepció bizonyítékai, mint pl BTC relé, konzorciumok, mint például a Enterprise Ethereum Szövetség, és olyan projektek, mint Wanchain bizonyítani, hogy egyesek még mindig elismerik az interoperabilitás kritikus értékét. Nagy esély van arra, hogy a piaci nyomás ösztönzi a blokklánc ökoszisztémát az interoperabilitás irányába, függetlenül attól, hogy a dolgok rövid távon hogyan alakulnak. A reakciós és a proaktív interoperabilitás azonban még mindig meg tudja határozni a különbséget az érték rögzítésének és az adatok felhasználásának módja között. Reakciós interoperabilitás – azaz. csak annak eldöntése, hogy az interoperabilitásnak a blokklánc döntő tényezőjének kell lennie sok éven át, amikor a piac megköveteli – lehetőséget nyújt harmadik felek számára az interoperabilitás megkezdésére és megkönnyítésére. Szolgáltatásaikból profitálnak, és aszimmetrikus hozzáférésük van a felhasználók adataihoz. Proaktív interoperabilitás – azaz biztosítva az interoperabilitás protokollokba történő kódolását az ökoszisztéma ebben a kialakulóban lévő szakaszában – másrészt biztosítja, hogy az adatok biztonságosan és hatékonyan továbbíthatók legyenek a blokkláncok között anélkül, hogy át kellene adni az irányítást egy közvetítő harmadik félnek.

Kétségtelen, hogy szükséges és egészséges egyensúly van a kereskedelem és a nyílt forráskódú interoperabilitás között. A kereskedelem elősegíti a versenyt és az innovációt, ösztönözve a fejlesztőket és a vállalkozókat olyan rendszerek kiépítésére, amelyek az ügyfelek számára a legjobban megfelelnek. Az egyensúly azonban bizonytalannak bizonyult a múltban. Amint nyomás nehezedik a blokkláncra az ígéret teljesítéséhez, úgy találjuk, hogy a kereskedelem egyre nagyobb hangsúlyt fektet a blokkláncra, hogy piacra készek legyenek, függetlenül attól, hogy milyen ideológiákat kell rövid időn belül feláldoznia.

ConsenSys Research

 

 

A szerzőkről

Everett Muzzy

Everett író és a ConsenSys kutatója. Írásai ben jelentek meg Hacker Noon, CryptoBriefing, Moguldom, és Coinmonks.

Mally Anderson

Mally a ConsenSys írója és kutatója. Írása megjelent az MIT-ben Journal of Design and Science, MIT-ek Innovációk, Kvarc, és Nemes.

Szerezd meg a ConsenSys Research legfrissebb oldalait

Iratkozzon fel, hogy értesítést kapjon a ConsenSys jövőbeni publikációiról

Iratkozzon fel →

Mike Owergreen Administrator
Sorry! The Author has not filled his profile.
follow me
Like this post? Please share to your friends:
Adblock
detector
map