Ola gente dia a todos gostaria da opinião de vocês pra saber qual o melhor ou qual protocolos vocês usam ou preferem para conversa com amigos ou familiares?? Atualmente estou usando o xmpp q é meu preferido mas cheguei a testar o matrix e achei bem interessante os apps moderno e as opções de pontes. Vocês acham q matrix está maduro suficiente pras coisas q mencionei ali em cima ou melhor ficar com xmpp?
Obs: talvez se eu fosse usar matrix iria auto hospedar ele pra usar e tals
@thes0ls @GeofSux66 cara, uma coisa muito interessante isso de ter um auto audio transcrevedor, poderia indicar como construiu esse grande alívio para as dores da vida no “zapzap” talvez algum repositório??? rsrsr
Hahah, tá no meio de um script enorme que eu também uso pra fazer o mirror das outras mensagens. Qualquer coisa alguma hora eu vejo se tento isolar só isso, mas pra dar um início seria:
Um script python com nio, que serve pra conectar no servidor, logar na conta e ficar espiando as mensagens que vão chegando.
Quando ele encontrar uma mensagem de áudio, eu faço ele baixar o arquivo numa pasta local e depois eu rodo o whisper hospedado localmente pra fazer a transcrição.
Depois com o resultado, eu tenho duas opções, enviar de volta o áudio para o mesmo chat, ou enviar pra um chat privado só comigo. Quando é com alguém chegado, eu envio pro mesmo chat, já o restante eu faço vir em separado.
Inicialmente eu usava o sr*, mas se a pessoa tinha um pouco de sotaque, o reconhecimento não funcionava legal.
Com o whisper o resultado é bem melhor, porém é bem mais pesado e demora um tanto pra transcrever. Um áudio de 30 segundos leva uns 3~4 minutos. Mas se a pessoa quis economizar o tempo dela enviando em audio, não deve se importar de esperar uns 5 minutos pra receber uma resposta do outro lado… hahah
*EDIT: Uma correção, o meu script também tava com o tesseract sendo usado em outro trecho, por isso eu confundi, mas a parte do audio era usando o SpeechRecognition. Foi mals. EDIT
Welp que eu acabei mesmo passando a limpo o meu script.
Aqui estou levando em conta que o matrix já está com a bridge rodando e o script vai cuidar só de espiar se chega mensagem de áudio.
Quem for usar, leia o código que eu botei uns comentários nos trechos que deve editar.
Testei só no meu próprio ambiente, então pode ser que tenha uma dependência ou outra que esqueci de anotar (nem lembro como que instalei o whisper, por exemplo).
A documentação do nio fica em aqui: https://matrix-nio.readthedocs.io/en/latest/index.html
# -*- coding: utf-8 -*- import requests import os import re import time import whisper import asyncio import json from nio import AsyncClient, MatrixRoom, RoomMessageText, RoomMessageAudio, Api # whisper requer o ffmpeg: # sudo apt update && sudo apt install ffmpeg # E no virtualenv do seu python, os requisitos provavelmente são: # pip install asyncio openai-whisper matrix-nio # Analisar o restante do script e substituir os valores do room_id na função audio_callback pelos da sua instância # ------------------------------------------------ # Credenciais do login. Pegar os dados da response: # curl -XPOST -d '{"type":"m.login.password", "user":"NOMEDOUSUARIO", "password":"SENHADOUSUARIO"}' "https://matrix.zzz/_matrix/client/r0/login" CONFIG_FILE = "matrix-credentials.json" if not os.path.isfile(CONFIG_FILE): f = open(CONFIG_FILE, 'w') f.write('{"user_id":"@usuario:matrix.zzz","access_token":"abc123","home_server":"https://matrix.zzz","device_id":"ABCD"}') f.close() print('Preencha as credenciais...') exit() # Este arquivo é usado pro script ignorar mensagens anteriores a data dele lastruntime='matrix.time.txt' if not os.path.isfile(lastruntime): f = open(lastruntime, 'w') f.write("0") f.close() # Pasta onde ficarão salvos os áudio temporários if not os.path.isdir("matrixtemp"): os.mkdir("matrixtemp") with open(CONFIG_FILE, "r") as f: config = json.load(f) client = AsyncClient(config["home_server"]) client.access_token = config["access_token"] client.user_id = config["user_id"] client.device_id = config["device_id"] async def matrix_message(text, room_id, server_timestamp, in_reply_to = 0): event_type="m.room.message" msgtype="m.text" if in_reply_to == 0: content = { "msgtype": msgtype, "body": cleanhtml(text), "format": "org.matrix.custom.html", "formatted_body": text } else: content = { "m.relates_to": {"m.in_reply_to": {"event_id": in_reply_to } }, "msgtype": msgtype, "body": cleanhtml(text), "format": "org.matrix.custom.html", "formatted_body": text } await client.room_send( room_id, message_type="m.room.message", content=content, ignore_unverified_devices=True, ) f = open(lastruntime, "w") f.write(str(server_timestamp)) f.close() CLEANR = re.compile('<.*?>') def cleanhtml(raw_html): cleantext = re.sub(CLEANR, '', raw_html) return cleantext async def audio_callback(room: MatrixRoom, event: RoomMessageAudio) -> None: # Aqui os chats que podem receber a transcrição na própria conversa. # Pra pegar o id, no Element, clique direito na sala, Settings > Advanced > Internal room ID permitidos=[ "!AsasasASas:matrix.zzz", "!Idasasas:matrix.zzz" ] if room.room_id in permitidos: room_id = room.room_id event_id = event.event_id else: room_id = "!BHBhbHBHbhb:matrix.zzz" # Aqui especifica o room_id do chat que vai receber fora dos permitidos acima event_id = 0 sender = event.source['sender'] lastrun = open(lastruntime, "r") lastrun = lastrun.read() if event.server_timestamp > int(lastrun): print(vars(room)) print(event) dllink = Api.mxc_to_http(event.source['content']['url']) print(dllink) filename = os.path.basename(dllink)+".ogg" filepath = "./matrixtemp/"+filename r = requests.get(dllink) print(r.status_code) with open(filepath, 'wb') as f: f.write(r.content) print("iniciando openai/whisper") start = time.time() model = whisper.load_model("medium") whisperconfig="bs3" #def p2bs5 bs3 bs2 if whisperconfig == "p2bs5": result = model.transcribe(filepath, language="pt", fp16=False, verbose=True, patience=2, beam_size=5) #580 segundos if whisperconfig == "def": result = model.transcribe(filepath, language="pt", fp16=False, verbose=True) #56 segundos if whisperconfig == "bs3": result = model.transcribe(filepath, language="pt", fp16=False, verbose=True, beam_size=3) #181 segundos if whisperconfig == "bs2": result = model.transcribe(filepath, language="pt", fp16=False, verbose=True, beam_size=2) #136 segundos end = time.time() tempogasto = int(end - start) print("Conluido, tempo gasto: "+ str(tempogasto)) text = result["text"] await matrix_message("<b>Transcrição:</b><br/><br/>"+sender+":<br/> "+text, room_id, str(event.server_timestamp), event_id) async def main() -> None: client.add_event_callback(audio_callback, RoomMessageAudio) await client.sync_forever(timeout=30000) # milliseconds asyncio.run(main())
EDIT: 2024-03-27 21h50: Corrigi um erro de copicola logo depois do
if not os.path.isfile(CONFIG_FILE):
.Só pra ficar registrado, não sei se os edits estão sendo federados corretamente, então o link pra versão mais atualizada tá aqui: https://lemmy.eco.br/comment/6300628