Quando se fala no mundo das redes sociais, o grande assunto de 2023 é o Twitter, ou melhor, o antigo Twitter, agora chamado de X. São tantas mudanças na plataforma que é difícil citar apenas uma.

Começou pela queda dos verificados selecionados, depois veio a possibilidade de comprar o selo, que ou a se chamar “Twitter Blue”, teve a proliferação das notícias falsas e chegou à limitação de visualização de tweets, dentre várias outras coisas que surgiram no meio.
Porém, o que representou mesmo todas essas mudanças estimuladas por Elon Musk, dono da plataforma, foi a mudança de nome e de logotipo. Todo mundo ainda chama de Twitter, mas o nome oficial é X (o que nos leva a uma pergunta: se lê “xis” ou “écs”?).
De qualquer forma, é uma mudança confusa e icônica, tal qual a mudança do próprio ícone da nova empresa: o tradicional arinho azul deu lugar a um X simples e levemente estilizado, desse jeito aqui: 𝕏.
Para além de todo o alvoroço e das previsões sobre o que virá a ser 𝕏, é interessante aprender com as coisas que rodeiam essas alterações, e um dos debates mais legais que surgiram são as análises da escolha da marca. Em especial, vamos focar em uma delas: a relação com a programação.
Independentemente dos mundos, é comunicação 1341p
O símbolo usado pela empresa é o caractere unicode U+1D54F. Parece grego, né?! Na verdade, é a linguagem de código mesmo. O 𝕏 faz parte de um catálogo com mais de 150 mil caracteres que padronizam a linguagem digital, permitindo a leitura dos computadores.
A comunicação, em geral, depende muito da convenção e padronização de signos e sinais que podem ser compreendidos pelas outras pessoas. Por exemplo: em português, a junção das letras o+i forma um cumprimento de chegada/recepção.
Já em inglês, o mesmo cumprimento é formado pelas letras h+i. Em ambos os casos, uma mão levemente estendida na altura dos ombros também pode comunicar visualmente este primeiro contato entre duas ou mais pessoas.
Com os computadores não é diferente. Nos primórdios da computação, se fazia necessário um padrão para que os sinais que estavam sendo emitidos fossem recebidos com o mesmo significado.
Ficou abstrato, né? Mas imagine que uma letra “Ç” é digitada: para o computador, o apertar da tecla é apenas um comando e ele é ado por um código que, para ser exibido em tela, precisa ser lido pela máquina.
Mas se esse computador estiver na Inglaterra, onde o alfabeto não tem “Ç”, ele precisa entender esse código para exibir o símbolo correto.
Desta forma, quando a internet estava na iminência de se popularizar e conectar o mundo, surgiu a necessidade de se criar um código que atendesse às mais de sete mil línguas faladas e seus diversos alfabetos e símbolos.
O padrão do mundo digital 1p6p37

Por isso, em 1991 surgiu o primeiro padrão Unicode, com a capacidade de ler sete mil caracteres de signos de 23 alfabetos de várias partes do mundo, como o latino, grego, hiragana, árabe, cirílico, etc.
A exigência inicial era de atender aos diversos alfabetos do mundo, porém a comunicação digital influenciou a comunicação, criando demandas de novas padronizações e tornando a linguagem geral (escrita, falada, sinais, expressões, etc.) muito mais dinâmica.
A grande demonstração disso é que, em 2022, 31 anos depois da primeira versão, o Unicode 15.0 tinha mais de 150 mil caracteres. São 2,5 mil páginas de documentos, e cada símbolo desses recebe um código.
Dentre as categorias na lista estão os alfabetos, os símbolos matemáticos, os hieróglifos egípcios ou até mesmo de algumas etnias indígenas, como os cherokee.
Pasmem também que os emojis são definidos por padrões Unicode, afinal de contas, queremos que o 👍 seja lido por um Android ou um iOS. A questão é: quem ler a mensagem vai achar que é um sinal positivo ou de ironia? 🤔
*Os padrões do mundo digital 3pz3y
Esse asterisco do subtítulo não é um padrão do Unicode e pode ser estranho para alguns, mas talvez você o tenha reconhecido. É uma forma de corrigir algo que foi digitado anteriormente em uma conversa, geralmente no WhatsApp.
Neste caso, foi usado para corrigir o subtítulo anterior, pois o Unicode não é o único padrão de leitura de caracteres utilizado.
Há outros padrões mais específicos destes códigos que são conhecidos como o ANSI, criado pela Microsoft nos anos 90 e que foi utilizado nos Windows 95 e 98.
Ele é uma extensão do ASCII — Código Padrão Americano para o Intercâmbio de Informação —, feito para o uso da língua inglesa, com uma tabela de 127 comandos, e não usa acentos ou caracteres especiais.
Se você tiver um computador com teclado alfanumérico, segure a tecla alt e digite 166 nos alfanuméricos: esse comando vai gerar o “a sobrescrito” ou ª.
Já o Unicode, como falamos anteriormente, reúne de tudo um pouco e forma uma linguagem muito mais plural e que sempre se renova, seja atendendo necessidades da comunicação atual, ou alimentando novas necessidades.