Publicado en Peer Review
https://blog.peer-review.io/we-might-have-a-way-to-fix-scientific-publishing
Un posible arreglo para la publicación científica (y académica)
3 agosto 2022
La publicación científica y académica está rota. La gran mayoría de las revistas han sido privatizadas por editores que cobran tarifas astronómicas por el acceso a la literatura.
Las tarifas se han vuelto tan altas que incluso las universidades bien financiadas han comenzado a alejarse de las negociaciones. Las universidades con menos financiación hace tiempo que no pueden permitírselas. El ciudadano medio no tiene ninguna esperanza de poder pagarlas.
Con los resultados del proceso científico encerrados tras muros de pago, la ciencia ya no es un proceso abierto y transparente. Y lo que es peor, a los responsables últimos de la política en una democracia, los ciudadanos de a pie, se les niega el acceso a las fuentes primarias necesarias para tomar buenas decisiones políticas.
El movimiento de acceso abierto ha tratado de resolver este problema, pero se ha ceñido en su mayor parte al modelo existente de contratación de editores para asignar manualmente los artículos a los revisores, lo que genera una gran sobrecarga. Para financiar sus operaciones, la mayoría de las revistas de acceso abierto han cambiado el modelo de negocio de pago por acceso a pago por publicación. Esto ha creado toda una serie de nuevos problemas, como el aumento de las revistas depredadoras que están dispuestas a publicar casi cualquier cosa de cualquiera que pueda pagar.
El efecto final del pay-to-play es que el proceso tradicional de revisión por pares y de arbitraje se ha roto. Si un investigador deshonesto es rechazado por una revista de prestigio, puede llevar su artículo a una revista de pago y publicarlo allí. Con más de 10.000 revistas académicas, es imposible para el público no especializado saber qué revistas son reputadas y cuáles no. Para el público, un artículo publicado es un artículo válido.
Esta es una propuesta de plataforma de software que puede ayudar a la comunidad académica a resolver estos problemas, y más.
Peer Review - Una propuesta de plataforma de publicación
Peer Review es una plataforma de publicación académica de acceso abierto (libre para publicar, libre para acceder) con el potencial de reemplazar todo el sistema de revistas.
Peer Review permite a los académicos y a los investigadores organizar su propia revisión y arbitraje, sin necesidad de que los editores de las revistas medien manualmente. La plataforma permite que la revisión y el arbitraje se realicen de forma colectiva, utilizando un sistema de reputación vinculado a los campos académicos para determinar quién puede ofrecer una revisión y un arbitraje.
La plataforma separa la revisión por pares previa a la publicación del arbitraje posterior a la publicación. La revisión previa a la publicación se convierte en una ayuda a los autores para pulir su trabajo y decidir si sus artículos están listos para ser publicados. El arbitraje se realiza después de la publicación y de una manera fácilmente comprensible para el lector no especializado, ayudando al público en general a distinguir los estudios sólidos de los dudosos.
Peer-Review se está desarrollando en código abierto. Se espera formar una organización sin ánimo de lucro para desarrollarla, que sería gobernada por la comunidad de académicos que utilizan la plataforma en colaboración con el equipo de profesionales del software que la construyen (una cooperativa de múltiples partes interesadas).
Dado que la plataforma hace el trabajo de revisión y arbitraje de forma colectiva, y dado que puede manejar potencialmente todos los campos académicos y científicos en una sola plataforma, podríamos eliminar la mayor parte de los gastos generales de la publicación académica. Esto significa que Peer Review podría financiarse inicialmente con pequeñas donaciones de los académicos que la utilicen. Si la plataforma llegara a sustituir a todo el sistema de revistas, podría ser financiada por las universidades por una pequeña fracción (1% o menos) de lo que pagan ahora por publicar.
Peer Review se encuentra actualmente en la fase alfa de desarrollo, la mayoría de las características principales son funcionales en una prueba de concepto. Hay que probarlas y fortalecerlas, y hay que cubrir varias lagunas de funcionalidad. Espero llegar a una beta cerrada en los próximos meses. Y una beta abierta varios meses después. Estoy buscando académicos que den su opinión sobre el concepto, ayuden a probar la alfa y nos ayuden a priorizar la hoja de ruta para las betas cerrada y abierta (give feedback on the concept, help test the alpha, and help us prioritize the roadmap for the closed and open betas.).
Si Peer Review tiene éxito, hay un gran número de caminos que podríamos seguir. Podría resolver potencialmente el problema del cajón de archivos desde el principio, simplemente dando a los académicos un lugar para enviar, obtener retroalimentación inmediata y publicar los trabajos del cajón de archivos. Podríamos explorar la creación de sistemas para ayudar a incentivar y destacar las réplicas, vinculando las réplicas a los estudios que están replicando y dando a las réplicas una bonificación de reputación. Podríamos crear sistemas para ayudar a compartir los datos y la transparencia de la financiación. Podríamos incluso explorar la automatización de algunas de las tareas más pesadas del mantenimiento de la literatura académica, como la generación de revisiones bibliográficas automáticas. Y podríamos trabajar para que la literatura académica sea más accesible y comprensible para el público en general.
Cómo funciona - La visión general
Así es como funciona la plataforma en detalle. Cuando tengas un borrador de un artículo que quieras comentar, envíalo a la plataforma. Le das un título, añades tus coautores y lo etiquetas con un máximo de cinco campos o disciplinas (por ejemplo, "biología", "bioquímica", "economía", etc.).
Los campos existen en un gráfico jerárquico que pretende ser evolutivo. Cada campo puede tener varios padres y muchos hijos: por ejemplo, "bioquímica", que es hijo de "biología" y "química". La jerarquía puede ser tan profunda como sea necesario. Estamos iniciando la jerarquía de campos utilizando los esquemas de Wikipedia de las disciplinas académicas, pero la intención es que la versión 1.0 incluya la posibilidad de que los académicos propongan nuevos campos o ediciones a los campos existentes, junto con un lugar propuesto en la jerarquía, y que sus compañeros confirmen las propuestas.
Cuando se gana reputación en un campo hijo, también se gana en todos los padres de ese campo. Así, un artículo etiquetado como "astrofísica" también da reputación en "física" y "ciencia espacial". La reputación se adquiere principalmente mediante la publicación y la recepción de comentarios positivos de los compañeros durante el arbitraje posterior a la publicación.
Cuando se pulsa enviar, el borrador pasa a la cola de revisión. Aquí, otros académicos que tienen suficiente reputación en cualquiera de los campos con los que usted etiquetó el artículo pueden ver el borrador y ofrecer comentarios al respecto.
Este sistema da a los académicos un enorme control sobre las personas a las que solicitan información. Al elegir la altura del diagrama de campos, eligen la amplitud de su red. Como pueden añadir hasta cinco campos (que no tienen por qué estar relacionados), pueden solicitar fácilmente comentarios interdisciplinarios.
Los revisores pueden hacer clic en cualquier parte del documento para dejar comentarios.
Cuando están listos, los revisores envían su revisión con un resumen y una recomendación. Las posibles recomendaciones son
"Recomendar la aprobación", que significa que el borrador está listo para publicarse.
"Recomendar cambios", que significa que creen que estará listo para publicarse después de realizar los cambios recomendados.
"Recomendar el rechazo", que significa que no creen que este trabajo sea digno de publicarse, o que podría hacerse publicable.
"Comentario", que es sólo una forma de ofrecer opiniones y comentarios sin una recomendación específica.
Los autores pueden marcar las reseñas como "aceptadas", indicando que las consideraron útiles, o "rechazadas", indicando que no fueron útiles. Las reseñas "aceptadas" otorgan al revisor reputación en los campos en los que está etiquetado el artículo (y sus parientes). Las revisiones "rechazadas" no otorgan reputación, pero tampoco la eliminan.
A medida que avanza el proceso de revisión, los autores pueden subir versiones adicionales de su artículo y solicitar nuevas rondas de comentarios de revisión para cada versión subida. Los revisores pueden ofrecer tantas revisiones a cada versión como sea necesario, pero sólo ganan reputación por una sola revisión aceptada en cada versión.
Cuando los autores están preparados, pulsan "Publicar" y su artículo queda publicado y en directo para todo el mundo.
Esto pone el proceso de revisión previo a la publicación totalmente en manos de los autores. Ofrece a los revisores un incentivo para que aporten comentarios sólidos y constructivos, y recompensa a los buenos revisores por sus esfuerzos con el reconocimiento de sus contribuciones. Considera el trabajo de revisión como una valiosa contribución al campo académico, además de la publicación.
El arbitraje comienza una vez publicado el trabajo.
En ese momento, los colegas académicos con suficiente reputación en los campos en los que el trabajo está etiquetado pueden votar el trabajo hacia arriba o hacia abajo. Los votos positivos aumentan la puntuación del artículo y otorgan a los autores reputación en los campos etiquetados. Los votos negativos reducen la puntuación del artículo y la reputación del autor en los campos etiquetados.
Los votos favorables deben basarse en una evaluación objetiva de la calidad del artículo. ¿Es una buena ciencia? ¿Un argumento bien construido? Muchos de los criterios que se utilizan actualmente para determinar si un artículo debe publicarse en una revista con buen nivel de referencia, deberían utilizarse para determinar si un artículo debe recibir un voto positivo o negativo, o simplemente no recibir ninguna puntuación. En lugar de que ese juicio sea emitido por un puñado de revisores seleccionados por el editor de una revista, se recogerá de toda la comunidad de los campos en los que se presentó el artículo.
Los compañeros también podrán publicar una única respuesta a cada artículo, en la que expondrán su opinión y las razones por las que han votado como lo han hecho (o no han votado) en público. Se anima a los votantes negativos a que publiquen una respuesta explicando su voto negativo.
De este modo, el proceso de arbitraje se hace transparente y fácil de seguir para el público. Un documento rechazado debe ser tratado con escepticismo. Uno votado al alza es digno de confianza. Las respuestas ayudan a añadir contexto y claridad.
Todos los artículos enviados a Peer Review se publican bajo la Licencia de Atribución de Creative Commons (Creative Commons Attribution License), lo que significa que el trabajo puede ser distribuido, remezclado y reutilizado libremente siempre que se atribuya a los autores del trabajo original.
Es importante recalcarlo: Peer Review está pensada para ser el último paso de la publicación. No es un servidor de preprint. Es un intento de sustituir el sistema de revistas por algo abierto en su núcleo, liderado por los académicos y gestionado colectivamente por la comunidad académica.
¿Quién es usted?
Me llamo Daniel Bingham y soy el desarrollador de Peer Review. Crecí en una familia académica (mi madre y mi padre son profesores y mi hermano se doctoró), pero me dediqué a la ingeniería de software. Aprendí a codificar por mi cuenta a los 12 años y llevo más de una década dedicándome profesionalmente al desarrollo de software.
Mi puesto más reciente fue el de Director de DevOps en Ceros, una empresa de software de tamaño medio. Construí y dirigí el departamento que desarrolló y mantuvo la infraestructura de la nube y los conductos de despliegue para Ceros Studio y MarkUp, Antes de construir el equipo de DevOps, fui un desarrollador de pila completa en Ceros ayudando a construir Ceros Studio.
Cuando no estoy escribiendo código, estoy muy involucrado en la política local. He trabajado estrechamente con representantes del gobierno municipal de Bloomington, Indiana, en materia de política climática, de transporte y de vivienda. He formado parte de grupos de trabajo gubernamentales y de consejos de administración de organizaciones locales sin ánimo de lucro, incluido un mandato de tres años como presidente del consejo de nuestra cooperativa local de viviendas asequibles 501(c)3.
Llevo años soñando con la Peer Review. En mi papel de defensor de la política, necesitaba acceso a la literatura de investigación, pero me costaba conseguirlo. Mientras reflexionaba sobre las posibles soluciones al problema del acceso abierto, las herramientas que utilizaba a diario como ingeniero de software inspiraron el concepto que se convirtió en Peer Review.
Tengo un profundo compromiso con la democracia, y estoy tan entusiasmado con el potencial de construir una organización gobernada por académicos y trabajadores en torno a la plataforma como lo estoy con la construcción de la plataforma.
¿En qué punto se encuentran las cosas y hacia dónde van?
Actualmente soy el único desarrollador que trabaja en Peer Review a tiempo completo. Hay un pequeño puñado de voluntarios que han ofrecido ayuda a tiempo parcial.
Tengo la versión alfa de Peer Review en un servidor de pruebas. Estoy buscando científicos, investigadores, estudiosos y académicos de todas las disciplinas que estén interesados en explorar la versión alfa y darme su opinión sobre el concepto y hacia dónde ir (exploring the alpha and giving me feedback on the concept).
¿Podría funcionar como yo creo? ¿Hay cosas en las que no estoy pensando? ¿Problemas que no he previsto? ¿Aspectos del sistema de publicación académica que desconozco y que la Peer Review no tiene en cuenta? En términos generales, ¿voy en la dirección correcta?
Tengo una hoja de ruta de características que necesito poner en marcha antes de que podamos comenzar una beta cerrada, y una cantidad significativa de endurecimiento y corrección de errores que hacer también. Espero llegar a una beta cerrada en los próximos dos meses. También estoy solicitando inscripciones (soliciting sign ups) para la beta cerrada. La calidad de Peer Review dependerá de la comunidad que se forme a su alrededor, así que, si la dirección que estoy explorando es prometedora, espero que podamos empezar a crear esa comunidad ahora.
Tras el periodo de beta cerrada, tengo la intención de hacer una beta abierta, en la que la plataforma se abra a todo aquel que quiera utilizarla (sin dejar de entender que no está completamente terminada o pulida).
Puedes ver la hoja de ruta en GitHub (roadmap on GitHub). Si no estás familiarizado con el proceso de desarrollo de software, ten en cuenta que la hoja de ruta es una estimación muy aproximada y que está en constante cambio.
También estoy buscando comentarios sobre esa hoja de ruta, ¿hay características que no se incluyen actualmente y que deberían considerarse para la beta cerrada? ¿Para la beta abierta?
Si estás interesado en explorar la alfa y dar tu opinión, quieres participar en la beta cerrada, o quieres que te avisemos cuando lleguemos a la beta abierta, por favor, rellena este formulario: fill out this form. También puedes utilizar ese formulario para dar tu opinión sobre el concepto inicial sin necesidad de registrarte.
Si crees que tengo algo en mente y quieres que Peer Review crezca, ¡considera apoyar el esfuerzo de desarrollo! Ahora mismo mi familia (mi mujer, mi hija y yo) vivimos de los ahorros. Espero recaudar lo suficiente a través de donaciones para poder comprometerme a trabajar en ello a tiempo completo, indefinidamente.
Necesito recaudar 8.000 dólares al mes para poder comprometerme: 5.500 dólares de gastos de manutención mensuales, 1.500 dólares para cubrir la asistencia sanitaria y 1.000 dólares para cubrir los costes iniciales de la infraestructura en la nube para el alojamiento del sitio.
Puedes apoyarme en GitHub Sponsors. Tendrás que hacerte una cuenta en GitHub, pero es gratis.
Si conseguimos recaudar esa cantidad, formaré la organización sin ánimo de lucro. Si recaudamos bastante más que eso, contrataré a más ingenieros, diseñadores, gestores de productos, devops y QE para que me ayuden con el desarrollo. También buscaré una subvención cuando lleguemos al periodo de beta cerrada. Cualquier pista en esa dirección será muy apreciada.
Si tienes preguntas, ideas, sugerencias, críticas, comentarios de cualquier tipo, pistas de subvención u ofertas de ayuda que no encajen en el formulario anterior, puedes ponerte en contacto conmigo en contact@peer-review.io
********************************************
A Possible Fix For Scientific (and Academic) Publishing
posted on Aug 3rd, 2022
Scientific and academic publishing is broken. The vast majority of the journals have been privatized by publishers who charge astronomical fees for access to the literature.
The fees have gotten so high that even well funded universities have started to walk away from negotiations. Universities with less funding have long been unable to afford them. The average citizen has no hope of affording them.
With the results of the scientific process locked away behind paywalls, science is no longer an open and transparent process. Worse, the ultimate deciders of policy in a democracy, average citizens, are being denied access to the primary source materials necessary to make good policy decisions.
The Open Access movement has been trying to solve this problem, but it has mostly stuck to the existing model of hiring editors to manually match reviewers to papers, creating high overhead. To fund their operations, most Open Access journals have flipped the business model from fee for access to fee for publish. This has created a whole host of new problems, including the rise of predatory journals that are willing to publish almost anything by anyone who can pay.
The ultimate effect of pay-to-play is that the traditional peer review and refereeing process has broken down. If a dishonest researcher gets rejected from a reputable journal, they can take their paper to a pay-to-play journal and have it published there. With over 10,000 academic journals, it’s impossible for the lay public to track which journals are reputable and which are not. As far as the public is concerned, a published paper is a valid paper.
This is a proposal for a software platform that may help the academic community solve these problems, and more.
Peer Review - A Proposed Publishing Platform
Peer Review is a diamond open access (free to publish, free to access) academic publishing platform with the potential to replace the entire journal system.
Este sistema da a los becarios un enorme control sobre las personas a las que solicitan información. Al elegir la altura del árbol de campos, eligen la amplitud de su red. Como pueden añadir hasta cinco campos (que no tienen por qué estar relacionados), pueden solicitar fácilmente comentarios interdisciplinarios.
Los revisores pueden hacer clic en cualquier parte del documento para dejar comentarios.
A screenshot of a scientific publishing platform.
Peer Review allows scholars, scientists, academics, and researchers to self organize their own peer review and refereeing, without needing journal editors to manually mediate it. The platform allows review and refereeing to be crowdsourced, using a reputation system tied to academic fields to determine who should be able to offer review and to referee.
The platform splits pre-publish peer review from post-publish refereeing. Pre-publish review then becomes completely about helping authors polish their work and decide if their articles are ready to publish. Refereeing happens post-publish, and in a way which is easily understandable to the lay reader, helping the general public sort solid studies from shakey ones.
Peer Review is being developed open source. The hope is to form a non-profit to develop it which would be governed by the community of academics who use the platform in collaboration with the team of software professionals who build it (a multi-stakeholder cooperative).
Since the platform crowdsources the work of review and refereeing, and because it can potentially handle all academic and scientific fields on a single platform, we could eliminate most of the overhead of academic publishing. Meaning Peer Review could be initially funded with small donations from the scholars using it. If the platform were to eventually replace the entire journal system, it could be funded by the universities for a tiny fraction (1% or less) of what they are paying for publishing now.
Peer Review is currently at the alpha stage of development, most of the core features are functional in a proof of concept. They need testing and hardening, and a number of functionality gaps need to be filled in. I hope to reach a closed beta in the next few months. And an open beta several months after that. I’m seeking academics to give feedback on the concept, help test the alpha, and help us prioritize the roadmap for the closed and open betas.
If Peer Review succeeds, there are any number of ways we could take it. It could potentially solve the file drawer problem from the beginning, by simply giving scholars a place to submit, get immediate feedback on, and publish file drawered papers. We could explore building systems to help incentivize and highlight replications - linking replications to the studies they are replicating and giving replications a reputation bonus. We could build systems to assist with data sharing and funding transparency. We could even explore automating some of the grunt work of maintaining the academic literature - such as generating automated literature reviews. And we could work to make the academic literature more accessible and understandable to general public.
How It Works - The Overview
Here’s how the platform works in detail. When you have a draft of a paper you’re ready to get feedback on, you submit it to the platform. You give it a title, add your co-authors, and tag it with up to five fields or disciplines (eg. “biology”, “biochemistry”, “economics”, etc).
A screenshot of a submission screen.
The fields exist in a hierarchical graph, which is intended to be evolutionary. Each field may have multiple parents and many children - eg. “biochemistry” which is a child of both “biology” and “chemistry”. The hierarchy can go as deep as it needs to. We’re initializing the field hierarchy using Wikipedia’s outlines of academic disciplines, but the intention is for the 1.0 version to include the ability for scholars to propose new fields or edits to existing fields, along with a proposed place in the hierarchy, and for their peers to confirm the proposals.
A screenshot showing field tags.
When reputation is gained in a child field, it is also gained in all of that field’s parents. So a paper tagged “astrophysics” also gives reputation in “physics” and “space-science”. Reputation is primarily gained through publishing and receiving positive feedback from your peers during post publish-refereeing - more on that later.
When you hit submit, the draft goes into the review queue. Here other scholars who have enough reputation in any of the fields you tagged the paper with can see the draft and offer feedback on it.
A screenshot showing the review queue.
This system gives scholars an enormous amount of control over who they solicit feedback from. By choosing how high up the field tree they go, they choose how wide to cast their net. Because they can add up to five fields (which don’t have to be related) they can easily request interdisciplinary feedback.
Reviewers can click anywhere on the document to leave comments.
A screenshot of review comments.
When they are ready, reviewers submit their review with a summary and a recommendation. The possible recommendations are:
“Recommend Approval” meaning that this draft is ready to publish.
“Recommend Changes” meaning that they think it’ll be ready to publish after the recommended changes are made.
“Recommend Rejection” meaning that they don’t think this paper is worthy of publishing, or could be made publishable.
“Commentary” which is just a way to offer feedback and commentary with out a specific recommendation.
A screenshot of the review screen.
Authors can then mark reviews as “accepted”, indicating that they found them helpful, or “rejected” indicating that they were not helpful. Reviews that are “accepted” grant the reviewer reputation in the fields the paper is tagged with (and their parents). Reviews that are “rejected” grant no reputation, but don’t remove it either.
As the review process goes along, authors may upload additional versions of their paper and request new rounds of review feedback for each version uploaded. Reviewers may offer as many reviews to each version as needed, but only gain reputation for a single accepted review on each version.
When the authors are ready, they hit “Publish” and their paper is published and live to the world.
This puts the pre-publish review process entirely in the hands of the authors. It gives reviewers an incentive to give solid, constructive review feedback - and rewards good reviewers for their efforts with recognition of their contributions. It treats review work as a valuable contribution to an academic field alongside publishing.
Refereeing begins once the work is published.
At that point, peer scholars with enough reputation in the fields the paper is tagged with can vote the paper up or down. Up votes increase the paper’s score and grant the authors reputation in the tagged fields. Down votes decrease the paper’s score and the author’s reputation in the tagged fields.
A screenshot of a published paper.
Up votes should be given based on an objective assessment of the paper’s quality. Is this good science? A well constructed argument? Much of the same criteria currently used to determine whether a paper should be published in a well refereed journal, should be used to determine whether a paper should be upvoted, downvoted, or simply left with no score. Instead of that judgment being passed by a handful of reviewers selected by a journal’s editor, it will be collected from the entire community of the fields the paper was submitted in.
Peers can also post a single response to each paper, outlining their feedback and reasons for voting how they did (or not voting at all) in public. Down voters will be strongly encouraged to post a response explaining their downvote.
A screenshot of the responses section of the publish screen.
In this way, the refereeing process is made transparent and easy for the public to follow. A down voted paper should be treated with skepticism. An up voted one is trustworthy. The responses help add context and clarity.
All papers submitted to Peer Review are published under the Creative Commons Attribution License, meaning the work can be freely distributed, remixed, and reused as long as the authors of the original work are attributed.
It’s important to emphasize: Peer Review is intended to be the final publish step. It is not a pre-print server. It is an attempt to replace the journal system with something open to its core, scholar lead, and collectively managed by the scholar community.
Who Are You?
My name is Daniel Bingham and I’m the developer of Peer Review. I grew up in an academic family (my mother and father are both professors and my brother got his PhD), but went into software engineering. I taught myself to code at age 12 and have been in professional software development for well over a decade.
My most recent role was Director of DevOps at Ceros, a mid-sized software company. I built and lead the department which developed and maintained the cloud infrastructure and deployment pipelines for the Ceros Studio and MarkUp. Before building the DevOps team, I was a full stack developer at Ceros helping to build the Ceros Studio.
When I’m not writing code, I’m very involved in local policy. I’ve worked closely with representatives of Bloomington, Indiana’s municipal government on climate, transportation, and housing policy. I’ve served on government task forces and on the boards of local non-profits, including a three year term as president of the board of our local 501(c)3 affordable housing cooperative.
I’ve been dreaming about Peer Review for years. In my role as a policy advocate, I needed access to the research literature, but struggled to get it. As I pondered potential solutions to the problem of open access, the tools I used on a daily basis as a software engineer inspired the concept that became Peer Review.
I have a deep commitment to democracy, and I am as excited about the potential to build a scholar and worker governed organization around the platform as I am to build the platform.
Where Do Things Stand and Where Are They Going?
I am currently the only developer working on Peer Review full time. There are a small handful of volunteers who’ve offered part time help.
I have the alpha version of Peer Review up on a staging server. I’m looking for scientists, researchers, scholars, and academics from all disciplines who are interested in exploring the alpha and giving me feedback on the concept and where to go next.
Could this work the way I think it might? Are there things I’m not thinking of? Problems I haven’t foreseen? Aspects of the academic publishing system I am unaware of and that Peer Review doesn’t account for? Broadly speaking, am I going in the right direction?
I have a roadmap of features I need to put in place before we can begin a closed beta, and a significant amount of hardening and bug fixing to do as well. I hope to reach a closed beta in the next couple months. I’m also soliciting sign ups for the closed beta. Peer Review will only be as good as the community that forms around it, so - if the direction I’m exploring does indeed hold promise - I’m hoping we can start building that community now.
After the closed beta period I intend to do an open beta, where the platform is opened to any who would like to use it (while still understanding that it is not completely finished or polished).
You can view the roadmap on GitHub. If you’re unfamiliar with the process of software development, please keep in mind that the roadmap is a very rough estimate and that it is constantly in flux.
I’m also looking for feedback on that roadmap, are there features which aren’t currently included that should be considered for the closed beta? For the open beta?
If you’re interested in exploring the alpha and giving feedback, want to participate in the closed beta, or want to be notified when we reach open beta, please fill out this form! You can also use that form to give feedback on the initial concept with out signing up for anything.
If you think I’m on to something and you want to see Peer Review grow, please consider supporting the development effort! Right now my family (my wife, my daughter, and I) are living on savings. I’m hoping to raise enough through donations to be able to commit to working on it full time, indefinitely.
I need to raise $8000 / month to make that commitment: $5500 of monthly living expenses, $1500 to cover health care, and $1000 to cover the initial cloud infrastructure costs for site hosting.
You can support me on GitHub Sponsors. You’ll need to make a GitHub Account, but it’s free.
If we successfully raise that much, I will form the non-profit. If we raise substantially more than that I will hire additional engineers, designers, product managers, devops, and QE to help with development. I will also be pursuing grant funding once we reach the closed beta period. Any leads in that direction would be much appreciated.
If you have questions, ideas, suggestions, criticisms, feedback of any kind, grant leads, or offers of help that don’t fit into the form linked above, you can contact me at contact@peer-review.io
************************
No hay comentarios:
Publicar un comentario